[go: up one dir, main page]

JP2016004348A - Information processing apparatus, program, information processing system, and information processing method - Google Patents

Information processing apparatus, program, information processing system, and information processing method Download PDF

Info

Publication number
JP2016004348A
JP2016004348A JP2014123200A JP2014123200A JP2016004348A JP 2016004348 A JP2016004348 A JP 2016004348A JP 2014123200 A JP2014123200 A JP 2014123200A JP 2014123200 A JP2014123200 A JP 2014123200A JP 2016004348 A JP2016004348 A JP 2016004348A
Authority
JP
Japan
Prior art keywords
user
identification information
information processing
screen
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014123200A
Other languages
Japanese (ja)
Other versions
JP6357900B2 (en
Inventor
航平 鈴木
Kohei Suzuki
航平 鈴木
寛樹 龍野
Hiroki Tatsuno
寛樹 龍野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014123200A priority Critical patent/JP6357900B2/en
Publication of JP2016004348A publication Critical patent/JP2016004348A/en
Application granted granted Critical
Publication of JP6357900B2 publication Critical patent/JP6357900B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Facsimiles In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus, program, information processing system, and method for presenting candidates for user identification information to a user.SOLUTION: An information processing apparatus includes: acquisition means S104 for acquiring identification information on the body of a user; calculation means S106 for calculating the similarity between the acquired identification information on the body of the user and identification information on the bodies of a plurality of users stored in storage means; display means S112 for displaying, on a screen, one or more pieces of user identification information stored in the storage means in association with the identification information on the bodies of the plurality of users according to the calculated similarity; and execution means for executing log-in processing using user identification information specified from one or more pieces of the displayed user identification information.

Description

本発明は、情報処理装置、プログラム、情報処理システム及び情報処理方法に関する。   The present invention relates to an information processing apparatus, a program, an information processing system, and an information processing method.

様々なシステムを利用するために、ユーザを区別するための認証が要求されることは多い。その際、ユーザID及びパスワードを入力してユーザを認証する技術は既に知られている。   In order to use various systems, authentication for distinguishing users is often required. At that time, a technique for authenticating a user by inputting a user ID and a password is already known.

例えば、パーソナルコンピュータ(PC)で閲覧中の電子文書等の書類をマルチファンクションプリンター(MFP:Multifunction Printer、以下、「MFP」という。)で印刷するとき、MFPにログインを行ってから印刷を実行するという作業は、MFPを導入している企業では日常的に行われる。   For example, when printing a document such as an electronic document being viewed on a personal computer (PC) with a multi-function printer (MFP), the user prints after logging in to the MFP. This work is performed on a daily basis in companies that have introduced MFPs.

特許文献1には、各入力端末における「なりすまし」を検知することを目的として、ID情報に基づき認証されたユーザの顔画像を撮影し、その顔画像を用いた顔照合により認証されたユーザが本人であるかを確認する方法が開示されている。   In Patent Document 1, for the purpose of detecting “spoofing” at each input terminal, a user's face image authenticated based on ID information is captured, and a user who is authenticated by face matching using the face image is detected. A method of confirming the identity is disclosed.

しかしながら、近時、ユーザが利用するシステムの数が多くなっており、ユーザ自身がどのシステムを利用するためにどのユーザID及びパスワードを設定していたかを正確に記憶及び管理することが難しくなっている。その結果、ユーザが設定した複数のユーザIDから利用したいシステム用に設定したユーザIDを忘れてしまい、ログインが困難になるという課題がある。   However, recently, the number of systems used by users has increased, and it has become difficult to accurately store and manage which user ID and password the user himself / herself has set for which system to use. Yes. As a result, there is a problem that the user ID set for the system that the user wants to use is forgotten from the plurality of user IDs set by the user, making login difficult.

また、ユーザインタフェースによってはユーザIDの入力が面倒な場合がある。特に、MFPに搭載されているソフトウェアキーボードを用いたユーザIDの入力は操作し難く、入力ミスが生じることがある。これに対して、入力の簡便化を図るために、ICカードを用いた認証処理を導入することも考えられるが、ICカードの持ち歩きが必要となり、また、ICカードを利用するシステムの導入コストが高くなる。   Also, depending on the user interface, the input of the user ID may be troublesome. In particular, it is difficult to input a user ID using a software keyboard installed in the MFP, and an input error may occur. On the other hand, in order to simplify input, it is conceivable to introduce an authentication process using an IC card. However, it is necessary to carry the IC card, and the introduction cost of the system using the IC card is increased. Get higher.

また、特許文献1の技術は、入力端末を利用するユーザの「なりすまし」を検知することを課題とし、「なりすまし」を検知するためにユーザIDを正確に記憶し、大量のユーザIDから適切なユーザIDを選択する必要があり、本課題を解消することは困難である。   In addition, the technique of Patent Document 1 has a problem of detecting “spoofing” of a user who uses an input terminal, stores a user ID accurately in order to detect “spoofing”, and appropriately uses a large number of user IDs. It is necessary to select a user ID, and it is difficult to solve this problem.

そこで、一側面では、ユーザにユーザ識別情報の候補を提示することを目的とする。   Therefore, an object of one aspect is to present a user identification information candidate to a user.

一つの案では、
ユーザの身体に関する識別情報を取得する取得手段と、
前記取得したユーザの身体に関する識別情報と、記憶手段が記憶する複数のユーザの身体に関する識別情報と、の類似度を算出する算出手段と、
前記算出した類似度に応じて、前記複数のユーザの身体に関する識別情報に対応付けて前記記憶手段が記憶する1又は複数のユーザ識別情報を画面に表示する表示手段と、
前記表示された1又は複数のユーザ識別情報から特定されたユーザ識別情報によるログイン処理を実行する実行手段と、
を有する情報処理装置が提供される。
One idea is that
Obtaining means for obtaining identification information about the user's body;
Calculating means for calculating the similarity between the acquired identification information relating to the user's body and identification information relating to the plurality of user bodies stored in the storage means;
Display means for displaying on the screen one or more user identification information stored in the storage means in association with identification information related to the body of the plurality of users according to the calculated similarity;
Execution means for executing login processing based on user identification information specified from the displayed one or more user identification information;
An information processing apparatus is provided.

一態様によれば、ユーザにユーザ識別情報の候補を提示することができる。   According to one aspect, the user identification information candidate can be presented to the user.

一実施形態にかかる情報処理システムの全体構成例を示す図。1 is a diagram illustrating an example of the overall configuration of an information processing system according to an embodiment. 一実施形態にかかるMFPの機能構成例を示す図。2 is a diagram illustrating an example of a functional configuration of an MFP according to an embodiment. FIG. 一実施形態にかかるMFP及びサーバの機能構成例を示す図。2 is a diagram illustrating an example of functional configurations of an MFP and a server according to an embodiment. FIG. 一実施形態にかかる情報処理システムの他の全体構成例を示す図。The figure which shows the other whole structural example of the information processing system concerning one Embodiment. 一実施形態にかかるMFP及びサーバの機能構成例を示す図。2 is a diagram illustrating an example of functional configurations of an MFP and a server according to an embodiment. FIG. 一実施形態にかかるユーザID候補の選定処理例を示すフローチャート。The flowchart which shows the selection processing example of the user ID candidate concerning one Embodiment. 一実施形態にかかるユーザID候補の選定処理の類似度算出を説明するための図。The figure for demonstrating the similarity calculation of the selection process of the user ID candidate concerning one Embodiment. 一実施形態にかかるユーザID候補の選定処理例のシーケンスを示す図。The figure which shows the sequence of the selection process example of the user ID candidate concerning one Embodiment. 一実施形態にかかるユーザID候補を提示する画面例を示す図。The figure which shows the example of a screen which presents the user ID candidate concerning one Embodiment. 一実施形態にかかるデータ更新処理例を示すフローチャート。The flowchart which shows the example of a data update process concerning one Embodiment. 一実施形態にかかるMFPのハードウェア構成例を示す図。2 is a diagram showing an example hardware configuration of an MFP according to an embodiment. FIG.

以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[情報処理システムの全体構成]
まず、本発明の一実施形態に係る情報処理システム1の全体構成について、図1を参照しながら説明する。図1は、一実施形態に係る情報処理システム1の全体構成例を示す。本実施形態に係る情報処理システム1は、MFP10を有する。
[Entire configuration of information processing system]
First, the overall configuration of an information processing system 1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 shows an example of the overall configuration of an information processing system 1 according to an embodiment. The information processing system 1 according to the present embodiment includes an MFP 10.

MFP10は、ユーザが利用可能な情報処理装置の一例である。情報処理装置は、撮像機能及び表示機能を有する電子機器であれば、その個数や機種は問わない。情報処理装置の一例としては、PC、タブレット型端末、スマートフォン、携帯電話、プロジェクター、画像形成装置、事務機器、家電品、携帯型音楽機器、ゲーム機器等であってもよい。   The MFP 10 is an example of an information processing apparatus that can be used by a user. The number and model of the information processing device are not limited as long as the information processing device is an electronic device having an imaging function and a display function. As an example of the information processing apparatus, a PC, a tablet-type terminal, a smartphone, a mobile phone, a projector, an image forming apparatus, office equipment, a household appliance, a portable music device, a game device, or the like may be used.

MFP10は、カメラ10a及びディスプレイ10bを有する。図1(a)に示すように、カメラ10aは、MFP10の近傍にいてディスプレイ10bを操作しようとするユーザの顔を撮影可能な視野角でMPF10に取り付けられている。カメラ10aとしては、例えばUSBカメラが挙げられる。   The MFP 10 includes a camera 10a and a display 10b. As shown in FIG. 1 (a), the camera 10a is attached to the MPF 10 at a viewing angle capable of photographing the face of the user who is in the vicinity of the MFP 10 and wants to operate the display 10b. An example of the camera 10a is a USB camera.

ユーザは、ログイン処理を行うためにMFP10のディスプレイ10bに近づく。カメラ10aは、ログイン処理の実行タイミング、定期的又は周期的にユーザの顔を撮影することができる。これにより、MFP10は、ユーザの顔画像データを取得することができる。   The user approaches the display 10b of the MFP 10 to perform login processing. The camera 10a can photograph the user's face at the login processing execution timing, periodically or periodically. Thereby, the MFP 10 can acquire the face image data of the user.

なお、ユーザの顔画像データは、ユーザの身体に関する識別情報の一例である。ユーザの身体に関する識別情報の他の例としては、ユーザの身体の全部又は一部の画像データが挙げられる。例えば、ユーザの身体に関する識別情報としてユーザの虹彩や指紋等の画像をユーザから取得してもよいし、ユーザの動作、ジェスチャ等の静止画像や動画像を取得してもよい。   The user's face image data is an example of identification information related to the user's body. Other examples of the identification information related to the user's body include image data of all or part of the user's body. For example, an image such as the user's iris or fingerprint may be acquired from the user as identification information relating to the user's body, or a still image or a moving image such as the user's motion or gesture may be acquired.

MFP10は、マスターDB(データベース)40(図2参照)に基づき、取得した顔画像データに応じてユーザIDを選定する。例えば、マスターDB40には、ユーザIDに対応付けて顔認識に必要な情報として顔画像データが蓄積されている。この場合、MFP10は、カメラ10aにより取得した顔画像データとマスターDB40内の顔画像データとの類似度に基づきユーザIDを選定する。   The MFP 10 selects a user ID according to the acquired face image data based on the master DB (database) 40 (see FIG. 2). For example, face image data is stored in the master DB 40 as information necessary for face recognition in association with the user ID. In this case, the MFP 10 selects the user ID based on the similarity between the face image data acquired by the camera 10a and the face image data in the master DB 40.

マスターDB40は、顔画像データの替わりに又は顔画像データと共に顔画像データから抽出される特徴量をユーザIDに対応付けて蓄積してもよい。つまり、画像データから抽出される特徴量は、ユーザの身体に関する識別情報の一例である。この場合、カメラ10aにより取得した顔画像データから顔認識に必要な情報(例えば、特徴量)を抽出し、マスターDB40に蓄積している顔画像データの特徴量と比較して類似度が算出される。   The master DB 40 may store the feature amount extracted from the face image data in association with the user ID instead of the face image data or together with the face image data. That is, the feature amount extracted from the image data is an example of identification information regarding the user's body. In this case, information (for example, feature amount) necessary for face recognition is extracted from the face image data acquired by the camera 10a, and the similarity is calculated by comparing with the feature amount of the face image data stored in the master DB 40. The

その結果、サーバ20は、類似度が所定の閾値以上と判定した場合、該当する顔画像データに対応付けてマスターDB40に記憶されているユーザIDを選定する。選定方法の他の例として、サーバ20は、類似度が高い順に上位数名のユーザIDを選定してもよい。   As a result, when the server 20 determines that the similarity is equal to or higher than a predetermined threshold, the server 20 selects a user ID stored in the master DB 40 in association with the corresponding face image data. As another example of the selection method, the server 20 may select the top several user IDs in descending order of similarity.

MFP10は、選定されたユーザIDをログイン時のユーザIDの候補としてディスプレイ10bの画面に表示する。図1(b)には、ログイン時のユーザIDの候補が、類似度の高い順に「Sample」、「Tanaka」、「abcDefGh」、「Suzuki」と表示されている例が示されている。   The MFP 10 displays the selected user ID on the screen of the display 10b as a user ID candidate at the time of login. FIG. 1B illustrates an example in which the user ID candidates at the time of login are displayed as “Sample”, “Tanaka”, “abcDefGh”, and “Suzuki” in descending order of similarity.

画面に表示されたユーザIDのうちユーザが選択したユーザIDを用いてログイン処理が実行される。ユーザは、ユーザインターフェース(UI)を介して、ユーザIDの候補から選択したユーザIDに対するパスワードの入力を行う。   The login process is executed using the user ID selected by the user among the user IDs displayed on the screen. The user inputs a password for the user ID selected from the user ID candidates via the user interface (UI).

ログインに成功した後は本実施形態のユーザID候補の選定処理は行わず、ログアウト後にカメラ10aの視野に入ったユーザの顔画像のデータを取得し、上記のように人物認識を行って類似度を算出し、類似度の高い順にユーザIDの候補を選定してもよい。   After successful login, the user ID candidate selection process according to the present embodiment is not performed. After the logout, the user's face image data that has entered the field of view of the camera 10a is acquired, and person recognition is performed as described above to obtain the similarity. And candidate user IDs may be selected in descending order of similarity.

以上、一実施形態に係る情報処理システム1の全体構成の一例について説明した。次に、かかる構成の情報処理システム1内のMFP10及びサーバ20の機能構成について説明する。   Heretofore, an example of the overall configuration of the information processing system 1 according to an embodiment has been described. Next, functional configurations of the MFP 10 and the server 20 in the information processing system 1 having such a configuration will be described.

[機能構成]
次に、一実施形態に係る情報処理システム1のMFP10の機能構成について、図2を参照しながら説明する。図2は、一実施形態に係るMFP10の機能構成例を示す。MFP10は、ログイン実行手段11、画像取得手段12、画像解析手段13、類似度算出手段14、IDサジェスト手段15、入出力手段16、記憶手段17及びマスターDB40を有する。
[Function configuration]
Next, a functional configuration of the MFP 10 of the information processing system 1 according to the embodiment will be described with reference to FIG. FIG. 2 shows a functional configuration example of the MFP 10 according to an embodiment. The MFP 10 includes a login execution unit 11, an image acquisition unit 12, an image analysis unit 13, a similarity calculation unit 14, an ID suggestion unit 15, an input / output unit 16, a storage unit 17, and a master DB 40.

ログイン実行手段11は、ユーザが選択又は入力したユーザID及びパスワードが情報処理システム1に予め登録されている認証情報と一致するかを判定する。画像取得手段12は、カメラ10aにより撮影した画像を取得する。   The login execution unit 11 determines whether the user ID and password selected or input by the user match the authentication information registered in advance in the information processing system 1. The image acquisition unit 12 acquires an image captured by the camera 10a.

画像解析手段13は、画像取得手段12が取得した画像データから、顔認識に必要な情報を抽出する。顔認識に必要な情報とは、顔画像データから抽出した特徴量(SIFT、SURF、HOGなど)を指す。以下では、顔認識に必要な情報として顔画像データから抽出した特徴量を単に顔画像データともいう。   The image analysis unit 13 extracts information necessary for face recognition from the image data acquired by the image acquisition unit 12. Information necessary for face recognition refers to feature quantities (SIFT, SURF, HOG, etc.) extracted from face image data. Hereinafter, a feature amount extracted from face image data as information necessary for face recognition is also simply referred to as face image data.

類似度算出手段14は、ユーザID毎に顔画像データ(顔画像データの特徴量を含む)を蓄積しているマスターDB40から蓄積されている顔画像データを取得する。類似度算出手段14は、取得した顔画像データと、マスターDB40に蓄積されている複数の顔画像データとを比較して類似度を算出する。   The similarity calculation unit 14 acquires face image data accumulated from the master DB 40 that accumulates face image data (including the feature amount of face image data) for each user ID. The similarity calculation unit 14 compares the acquired face image data with a plurality of face image data stored in the master DB 40 to calculate the similarity.

IDサジェスト手段15は、類似度算出手段14の出力結果から、ユーザに提示(以下、「サジェスト」ともいう。)するユーザIDの候補を選定する。   The ID suggestion unit 15 selects a user ID candidate to be presented to the user (hereinafter also referred to as “suggest”) from the output result of the similarity calculation unit 14.

入出力手段16は、ユーザ操作による入力を受け付けて、情報処理システム1からの出力を表示する。入出力手段16は、ユーザ操作による入力を受け付けて、ユーザIDの候補を画面に表示する。   The input / output unit 16 receives an input by a user operation and displays an output from the information processing system 1. The input / output unit 16 accepts an input by a user operation and displays a user ID candidate on the screen.

マスターDB40は、ユーザID毎に対応付けて一つ又は複数の顔画像データを蓄積している。記憶手段17は、マスターDB40に新たなユーザIDに対する画像データを追加したり、マスターDB40に蓄積されたデータを更新(追加、変更及び削除を含む)したりする。   The master DB 40 stores one or a plurality of face image data in association with each user ID. The storage unit 17 adds image data for a new user ID to the master DB 40, and updates (including addition, change, and deletion) data stored in the master DB 40.

なお、MFP10を構成する各手段はハードウェア的に分かれている必要はなく、ソフトウェアとして各手段を機能単位で分けて処理することも可能である。   Note that the units constituting the MFP 10 do not need to be separated in terms of hardware, and each unit can be processed in units of functions as software.

マスターDB40は、必ずしもMFP10内に記憶されている必要はなく、例えば、図3に示したように、サーバ20内に記憶されていてもよい。図3に示すサーバ20は、マスターDB40とともにマスターDB40内のデータ更新を行う記憶手段17を有する。この場合、MFP10は、サーバ20からマスターDB40内のデータを受信し、受信したデータに含まれる顔画像データに応じてユーザIDを選定する。   The master DB 40 is not necessarily stored in the MFP 10, and may be stored in the server 20 as illustrated in FIG. 3, for example. The server 20 illustrated in FIG. 3 includes a storage unit 17 that updates data in the master DB 40 together with the master DB 40. In this case, the MFP 10 receives the data in the master DB 40 from the server 20 and selects the user ID according to the face image data included in the received data.

(サーバが主な機能を有する場合)
本実施形態に係る情報処理システム1の他の全体構成例について、図4を参照しながら説明する。情報処理システム1は、MFP10及びサーバ20を有する。MFP10とサーバ20とは、インターネット等のネットワーク30を介して通信可能に接続されている。
(When the server has main functions)
Another overall configuration example of the information processing system 1 according to the present embodiment will be described with reference to FIG. The information processing system 1 includes an MFP 10 and a server 20. The MFP 10 and the server 20 are communicably connected via a network 30 such as the Internet.

サーバ20がユーザIDの候補を選定する機能を有する場合(例えば、図5のIDサジェスト手段15)、図4(a)に示すように、MFP10で撮影した顔画像データは、MFP10からサーバ20に送信される。サーバ20は、マスターDB40内のデータに基づき、取得した顔画像データとマスターDB40内の顔画像データとの類似度に応じてユーザIDを選定する。選定されたユーザIDは、サーバ20からMFP10に送信され、ログイン時のユーザIDの候補としてMFP10のディスプレイ10bの画面に表示される。図4(b)には、ログイン時のユーザIDの候補が、類似度の高い順に「Sample」、「Tanaka」、「abcDefGh」、「Suzuki」と表示されている例が示されている。
(他のシステム構成例)
更に、MFP10及びサーバ20の他の機能構成例について、図5を参照しながら説明する。図5では、MFP10は、画像取得手段12及び入出力手段16を有する。つまり、MFP10は、入出力端末としての機能を有する。一方、サーバ20は、ログイン実行手段11、画像解析手段13、類似度算出手段14、IDサジェスト手段15及び記憶手段17を有する。図5の例では、マスターDB40は、MFP10及びサーバ20以外の装置の記憶領域に記憶されている。例えば、マスターDB40は、ネットワーク30を介して接続可能なクラウドコンピューティングで提供される記憶装置に記憶されてもよい。
When the server 20 has a function of selecting a user ID candidate (for example, the ID suggestion unit 15 in FIG. 5), as shown in FIG. 4A, face image data photographed by the MFP 10 is transferred from the MFP 10 to the server 20. Sent. The server 20 selects a user ID according to the similarity between the acquired face image data and the face image data in the master DB 40 based on the data in the master DB 40. The selected user ID is transmitted from the server 20 to the MFP 10 and displayed on the screen of the display 10b of the MFP 10 as a user ID candidate at the time of login. FIG. 4B illustrates an example in which the user ID candidates at the time of login are displayed as “Sample”, “Tanaka”, “abcDefGh”, and “Suzuki” in descending order of similarity.
(Other system configuration examples)
Furthermore, another functional configuration example of the MFP 10 and the server 20 will be described with reference to FIG. In FIG. 5, the MFP 10 includes an image acquisition unit 12 and an input / output unit 16. That is, the MFP 10 has a function as an input / output terminal. On the other hand, the server 20 includes a login execution unit 11, an image analysis unit 13, a similarity calculation unit 14, an ID suggestion unit 15, and a storage unit 17. In the example of FIG. 5, the master DB 40 is stored in a storage area of a device other than the MFP 10 and the server 20. For example, the master DB 40 may be stored in a storage device provided by cloud computing that can be connected via the network 30.

図3及び図5に示すように、マスターDB40をMFP10本体とは別の装置に備えることで、マスターDB40へ蓄積するデータ量が増加したときに、MFP10本体に与える影響を緩和できる。以上、本実施形態に係るMFP10及びサーバ20の機能構成について説明した。   As shown in FIGS. 3 and 5, by providing the master DB 40 in a device different from the MFP 10 main body, when the amount of data stored in the master DB 40 increases, the influence on the MFP 10 main body can be reduced. The functional configurations of the MFP 10 and the server 20 according to the present embodiment have been described above.

[ユーザID候補の選定処理]
次に、一実施形態にかかるユーザID候補の選定処理の一例について、図6及び図7を参照しながら説明する。図6は、一実施形態にかかるユーザID候補の選定処理例を示すフローチャートである。図7は、一実施形態にかかるユーザID候補の選定処理の類似度算出を説明するための図である。
[User ID candidate selection processing]
Next, an example of user ID candidate selection processing according to an embodiment will be described with reference to FIGS. 6 and 7. FIG. 6 is a flowchart illustrating an example of user ID candidate selection processing according to an embodiment. FIG. 7 is a diagram for explaining the similarity calculation in the user ID candidate selection process according to the embodiment.

なお、図6に示すユーザID候補の選定処理のうち、顔画像データの撮影及びユーザID候補の表示は、MFP10側で実行される。ユーザID候補の選定は、図2及び図3の機能構成ではMFP10側で実行され、図5の機能構成ではサーバ20側で実行される。
(選定処理の前提)
前提として、ユーザID候補の選定処理では、ユーザが特に意識しなくても自動的にユーザIDの候補が画面に提示されることが好ましい。例えば、ユーザがMFP10を操作するためにMFP10の近くに来たことをトリガーとして、カメラ10aが撮影したユーザの顔画像データに基づき、ユーザIDの候補の選定処理をバックグラウンドでMFP10又はサーバ20が実行することが好ましい。これによれば、ユーザがMFP10の近くに来たことをトリガーとして、ユーザが特別な操作をすることなく、ユーザが特に意識しなくても自動的にユーザIDの候補が画面にサジェストされる。ここで、ユーザがMFP10の近くに来たことの判定方法について、その一例を以下に説明する。
Note that, in the user ID candidate selection process illustrated in FIG. 6, the photographing of the face image data and the display of the user ID candidate are executed on the MFP 10 side. Selection of the user ID candidate is executed on the MFP 10 side in the functional configuration of FIGS. 2 and 3, and is executed on the server 20 side in the functional configuration of FIG.
(Assumption of selection process)
As a premise, in the user ID candidate selection process, it is preferable that the user ID candidates are automatically presented on the screen even if the user is not particularly conscious. For example, the user ID candidate selection process is performed in the background by the MFP 10 or the server 20 based on the user's face image data captured by the camera 10a, triggered by the user's proximity to the MFP 10 to operate the MFP 10. It is preferable to carry out. According to this, the user ID candidate is automatically suggested on the screen without triggering a special operation by the user coming near the MFP 10 and without the user being particularly conscious. Here, an example of a method for determining that the user has come close to the MFP 10 will be described below.

判定の前提として、カメラ10aは予めユーザがいない状態の画像(以下、「基準画像」という。)を撮影し、その基準画像はMFP10内に保持されている。カメラ10aは、定期的に画像を撮影する。基準画像は、「ユーザが所定時間以上画面の近くにいるか」を判定するために使用される。この判定が「Yes」のとき、ユーザがディスプレイ10bの画面の近くに来たと判定することができ、これをトリガーにしてユーザID候補の選定処理を開始すると判定できる。ここで、「ユーザが所定時間以上画面の近くにいるか」は、カメラ10aによって撮影された画像と基準画像とに基づき判定する方法が一例として挙げられる。   As a premise for the determination, the camera 10a previously captures an image without a user (hereinafter referred to as “reference image”), and the reference image is held in the MFP 10. The camera 10a periodically takes images. The reference image is used to determine whether the user is near the screen for a predetermined time or more. When this determination is “Yes”, it can be determined that the user has come close to the screen of the display 10b, and this can be used as a trigger to start the process of selecting a user ID candidate. Here, as an example, a method of determining whether “the user is close to the screen for a predetermined time or longer” based on the image captured by the camera 10a and the reference image is given.

具体的には、ユーザがMFP10を操作しようとしてMFP10の前に近づいた時、基準画像のどの領域が変化するかが予め定められている。例えば、基準画像から画面の近くに立つユーザの位置を特定し、特定した人型の領域全体又はその人型の顔の周辺領域を変化領域に定めてもよい。ユーザには個体差があるので、画定する変化領域は、厳密でなくてもよく、おおよその領域を画定すればよい。その変化領域において、カメラ10aによって撮影された画像が、基準画像と異なっている部分が所定の割合以上であれば、ユーザが画面の近くに来たと判定される。この判定に使用される所定の割合を示す閾値Aは、予め設定され、記憶されている。この閾値により、ユーザの個体差による判定の誤差を吸収することができる。また、ユーザがMFP10の前に来て操作を行おうとしているかを判別するための閾値Bも同様の手法により設定しておく。
(選定処理の開始)
上記の設定が事前に行われた上で、図6のユーザID候補の選定処理が開始され、カメラ10aは、定期的に撮影を行う(ステップS100)。画像解析手段13は、撮影した画像と基準画像とを比較し、ユーザが画像の近くに所定時間以上いるかを判定する(ステップS102)。
Specifically, it is determined in advance which region of the reference image changes when the user approaches the MFP 10 in an attempt to operate the MFP 10. For example, the position of the user standing near the screen may be specified from the reference image, and the specified humanoid area or the peripheral area of the humanoid face may be determined as the change area. Since there are individual differences among users, the change area to be defined does not have to be exact, and it is only necessary to define an approximate area. In the change area, if the portion of the image taken by the camera 10a is different from the reference image by a predetermined ratio or more, it is determined that the user has come close to the screen. A threshold A indicating a predetermined ratio used for this determination is set and stored in advance. With this threshold, it is possible to absorb determination errors due to individual differences among users. In addition, a threshold value B for determining whether the user is in front of the MFP 10 and wants to perform an operation is set by the same method.
(Start of selection process)
After the above settings have been made in advance, the user ID candidate selection process in FIG. 6 is started, and the camera 10a periodically takes images (step S100). The image analysis unit 13 compares the captured image with the reference image, and determines whether the user is close to the image for a predetermined time or longer (step S102).

例えば、画像解析手段13は、変化領域において撮影した画像と基準画像との差分(例えば、設定した変化領域内の各画素の色成分の差)が何%あるかを解析する。画像解析手段13が、前記差分が予め定められた所定の閾値A以上であると判定したとき、記憶手段17は、基準画像と比較した画像(以下、「推定画像」という。)を保持する。   For example, the image analysis unit 13 analyzes how many percent of the difference between the image captured in the change area and the reference image (for example, the difference in color components of each pixel in the set change area) exists. When the image analysis unit 13 determines that the difference is equal to or greater than a predetermined threshold A, the storage unit 17 holds an image compared to the reference image (hereinafter referred to as “estimated image”).

次に、ユーザがその場に停止しているかを見るため、画像解析手段13は、所定期間経過後(例えば、1秒後)にカメラ10aが撮影した画像を取得し、取得した画像と推定画像とを比較する。画像解析手段13は、設定した変化領域において画像の差分(例えば、各画素の色成分の差分)が何%あるかを解析する。変化領域において撮影した画像と推定画像との差分が予め定められた所定の閾値B以下のとき、画像解析手段13は、変化領域における画像の変化が閾値B以下であることからユーザは画面の近くから移動していないと判定する。このようにしてユーザがMFP10の前までやって来て、操作を行うためにその場にいようとしている状態であることを判別できる。   Next, in order to see whether or not the user has stopped at the spot, the image analysis unit 13 acquires an image photographed by the camera 10a after a predetermined period has elapsed (for example, after one second), and the acquired image and the estimated image And compare. The image analysis unit 13 analyzes how many percent of the image difference (for example, the color component difference of each pixel) is in the set change region. When the difference between the image captured in the change area and the estimated image is equal to or less than a predetermined threshold B, the image analysis unit 13 indicates that the user is close to the screen because the change in the image in the change area is equal to or less than the threshold B. It is determined that it has not moved. In this way, it can be determined that the user has come to the front of the MFP 10 and is about to be there to perform an operation.

上記の判定によって、ステップS102の「ユーザが画面の近くに所定時間以上いるか(ユーザがMFP10を操作しようとしているか)」を判別することができる。ユーザがMFP10を操作しようとしていると判別された場合、これをトリガーとしてステップS104〜S108にてユーザID候補が選定される。   Based on the above determination, it is possible to determine whether “the user is close to the screen for a predetermined time or longer (whether the user is going to operate the MFP 10)” in step S102. When it is determined that the user intends to operate the MFP 10, a user ID candidate is selected in steps S104 to S108 using this as a trigger.

ステップS104では、画像取得手段12は、カメラ10aが撮影したユーザの顔画像データを取得する。次に、類似度算出手段14は、マスターDB40からキャッシュした顔画像データ(キャッシュデータ)と取得した顔画像データとの類似度を算出する(ステップS106)。   In step S104, the image acquisition unit 12 acquires user's face image data captured by the camera 10a. Next, the similarity calculation means 14 calculates the similarity between the face image data cached from the master DB 40 (cache data) and the acquired face image data (step S106).

例えば、図7にデータ比較及びその結果のサンプル例を示す。図7では、例えば、サーバ20にマスターDB40が保存されている場合が示されているが、マスターDB40は、MFP10内に保存されてもよいし、ネットワーク30を介して通信可能な他の記憶装置に保存されてもよい。   For example, FIG. 7 shows an example of data comparison and the result. In FIG. 7, for example, the case where the master DB 40 is stored in the server 20 is illustrated, but the master DB 40 may be stored in the MFP 10 or another storage device that can communicate via the network 30. May be stored.

マスターDB40にはマスターデータが蓄積されている。各マスターデータには、ユーザIDに対応付けて1又は複数の顔画像データが記憶されている。例えば、ユーザID「Tanaka」に対応付けてn個の顔画像データが蓄積されている。各ユーザIDに対応付けられる顔画像データの個数はn個に限らない。なお、マスターDB40に記憶されているデータの更新処理については後述される。MFP10のインプットデータは、カメラ10aにより撮影され、取得された顔画像データである。   Master data is stored in the master DB 40. Each master data stores one or a plurality of face image data in association with the user ID. For example, n face image data are accumulated in association with the user ID “Tanaka”. The number of face image data associated with each user ID is not limited to n. In addition, the update process of the data memorize | stored in master DB40 is mentioned later. The input data of the MFP 10 is face image data captured and acquired by the camera 10a.

図6に戻り、類似度算出手段14は、取得した顔画像データとキャッシュした各顔画像データとを比較する。その結果、類似度算出手段14は、取得した顔画像データとの類似度が閾値0.7以上のキャッシュした顔画像データに対応するユーザIDを選定する(ステップS108)。   Returning to FIG. 6, the similarity calculation unit 14 compares the acquired face image data with each cached face image data. As a result, the similarity calculation unit 14 selects a user ID corresponding to the cached face image data whose similarity with the acquired face image data is equal to or greater than the threshold value 0.7 (step S108).

上記ユーザID候補の選定処理は、ステップS102にて「ユーザが画面の近くに所定時間以上いる」と判定された場合にバックグラウンドで実行され、提示するユーザIDの候補が決定された状態まで自動で処理しておくことが望ましい。つまり、本実施形態では、決定されたユーザIDの候補を自動的にユーザIDが選択可能な画面に表示するのではなく、ユーザがログインボタンを押下して、ログインしようという意思を見せたことに応じてユーザIDの候補を表示することが好ましい。   The user ID candidate selection process is executed in the background when it is determined in step S102 that "the user is near the screen for a predetermined time or longer", and automatically until the user ID candidate to be presented is determined. It is desirable to process with. That is, in this embodiment, instead of automatically displaying the determined user ID candidates on the screen where the user ID can be selected, the user has shown the intention to log in by pressing the login button. Accordingly, it is preferable to display user ID candidates.

これにより、画像によるユーザの存在の有無の判定(S102)が、「ユーザIDの候補の選定」処理を開始するトリガーになる。また、MFP10に対して何らかの操作(ログインボタンの押下や、スリープから復帰するボタンの押下等)が行われたということが「ユーザIDの候補の表示」のトリガーになる。これにより、不必要にユーザIDの候補を提示することを回避できる。また、本実施形態では、画面に近づいたユーザがログインのための操作を行う前に、ユーザID候補の選定処理を自動で開始することも可能となるためユーザの待ち時間を軽減できる。   Accordingly, the determination of the presence / absence of the user based on the image (S102) serves as a trigger for starting the “selection of user ID candidates” process. In addition, an operation (such as pressing a login button or pressing a button for returning from sleep) on the MFP 10 is a trigger for “display candidate ID”. This can avoid unnecessary presentation of user ID candidates. Further, in the present embodiment, it is possible to automatically start the user ID candidate selection process before the user approaching the screen performs an operation for login, so that the waiting time of the user can be reduced.

以上の理由により、ステップS110において、入出力手段16は、ユーザ操作によりログインボタンが押されたかを判定する。ログインボタンが押されたと判定された場合、入出力手段16は、選定したユーザIDを類似度が高い順にMFP10の画面に表示する(ステップS112)。   For the above reason, in step S110, the input / output unit 16 determines whether the login button has been pressed by a user operation. If it is determined that the login button has been pressed, the input / output unit 16 displays the selected user IDs on the screen of the MFP 10 in descending order of similarity (step S112).

例えば、図7の「結果1(ケース1)」には、類似度が閾値「0.7」以上の画像データに紐付けられたユーザIDが類似度が高い順に上から選定されている。よって、入出力手段16は、結果1に従い図1に示すように、類似度が閾値「0.7」以上の画像データに対応付けられたユーザIDをMFP10の画面に表示する。その際、ユーザIDは、類似度が高い順、すなわち「Sample」、「Tanaka」、「abcDefGh」、「Suzuki」の順にMFP10の画面に表示される。   For example, in “Result 1 (Case 1)” in FIG. 7, user IDs associated with image data having a similarity of not less than the threshold value “0.7” are selected from the top in descending order of similarity. Accordingly, as shown in FIG. 1, the input / output unit 16 displays the user ID associated with the image data having a similarity of “0.7” or more on the screen of the MFP 10 according to the result 1. At this time, the user IDs are displayed on the screen of the MFP 10 in the descending order of similarity, that is, “Sample”, “Tanaka”, “abcDefGh”, and “Suzuki”.

また、選定されたユーザIDを表示する他の例としては、類似度が高い順に単純に表示する例が挙げられる。この結果、図7の「結果1」の場合、類似度が閾値「0.7」以下の画像データに対応付けられたユーザID、すなわち、「Yamada」、「Sato」、「Admin」も順にMFP10の画面に表示される。一画面に候補となるすべてのユーザIDを表示することができない場合、複数画面の切り替え操作を行ってユーザIDを類似度が高い順に表示してもよい。図1に示す画面上の前ボタン10b1及び次ボタン10b2をユーザが押すことによって画面の切り替えが可能である。   Another example of displaying the selected user ID is an example in which the selected user ID is simply displayed in descending order of similarity. As a result, in the case of “Result 1” in FIG. 7, the user IDs associated with the image data whose similarity is equal to or lower than the threshold value “0.7”, that is, “Yamada”, “Sato”, “Admin” are also sequentially input to the MFP 10. Displayed on the screen. When all candidate user IDs cannot be displayed on one screen, a plurality of screen switching operations may be performed to display user IDs in descending order of similarity. The screen can be switched by the user pressing the previous button 10b1 and the next button 10b2 on the screen shown in FIG.

選定されたユーザIDの表示条件の他の例としては、図7の「結果2(ケース2)」に示すように、類似度が高い画像データに対応付けられたユーザIDから順に上位から所定件数(ここでは、3件)のユーザIDを候補として表示してもよい。その他、ケース1及びケース2を組み合わせた表示条件に従いユーザIDの候補を表示してもよい。   As another example of the display conditions of the selected user ID, as shown in “Result 2 (Case 2)” in FIG. 7, a predetermined number from the top in order from the user ID associated with the image data having a high degree of similarity. You may display (here 3 cases) user ID as a candidate. In addition, user ID candidates may be displayed in accordance with display conditions in which case 1 and case 2 are combined.

図6に戻り、入出力手段16は、リトライの要求があるかを判定する(ステップS114)。例えば、図1のディスプレイ10bの画面にリトライボタン10b3が表示され、ユーザがこのボタンが押されると、入出力手段16は、リトライの要求があると判定し、ステップS100に戻って再度、ユーザID候補の選定処理が実行される。リトライの要求がないと判定された場合、本処理は終了する。   Returning to FIG. 6, the input / output unit 16 determines whether there is a request for retry (step S114). For example, when the retry button 10b3 is displayed on the screen of the display 10b in FIG. 1 and the user presses this button, the input / output means 16 determines that there is a request for retry, and returns to step S100 to again return the user ID. A candidate selection process is executed. If it is determined that there is no request for retry, this process ends.

例えば、カメラ10aで撮影されたユーザの顔画像が横顔であったり、画像がぼやけていたりすると、顔画像データの特徴量が実際のユーザの顔の特徴と異なって選定されるため、類似度の算出結果が実際の類似度とずれることがある。この場合、候補として表示されたユーザIDがユーザのログイン用のユーザIDを含まないことが考えられる。そこで、本実施形態にかかるユーザID候補の選定処理は、リトライの要求を判定し、ユーザの指示に従い候補として表示するユーザIDを再度、選定及び表示する。これにより、表示するユーザIDの精度を高めることができる。   For example, if the user's face image captured by the camera 10a is a profile or the image is blurred, the feature amount of the face image data is selected differently from the actual user's face feature. The calculation result may deviate from the actual similarity. In this case, it is conceivable that the user ID displayed as a candidate does not include the user ID for user login. Therefore, in the user ID candidate selection process according to the present embodiment, a retry request is determined, and a user ID to be displayed as a candidate is selected and displayed again according to a user instruction. Thereby, the precision of the user ID to display can be raised.

以上、本実施形態にかかるユーザID候補の選定処理の一例について説明した。これによれば、ユーザがMFP10の画面近傍まで来たことをトリガーとして、ユーザが特に意識しなくても自動的にユーザIDの候補が選定される。また、ユーザのログイン要求に応じてユーザIDの候補が画面に表示され、ユーザにサジェストされる。これによれば、画面に近づいたユーザがログインのための操作を行う前に、カメラ10aが撮影したユーザの顔画像に基づき、本実施形態にかかるユーザID候補の選定処理をバックグラウンドで実行することができる。これにより、ユーザの待ち時間を減らしながらログイン時にユーザにユーザIDの候補を提示できる。   Heretofore, an example of user ID candidate selection processing according to the present embodiment has been described. According to this, a user ID candidate is automatically selected even when the user is not particularly conscious of, triggered by the fact that the user has come close to the screen of the MFP 10. Also, user ID candidates are displayed on the screen in response to the user's login request and suggested to the user. According to this, before the user approaching the screen performs an operation for login, the user ID candidate selection process according to the present embodiment is executed in the background based on the user's face image captured by the camera 10a. be able to. Thereby, the candidate of user ID can be shown to a user at the time of login, reducing a user's waiting time.

なお、本実施形態にかかるユーザID候補の選定処理は、ログアウト後のMFP10に対して実行され、ログアウト前のMFP10に対しては実行されない。また、「ユーザが画面の近くに所定時間以上いる」と判定されたときにMFP10の電源がオンされ、本実施形態にかかるユーザID候補の選定処理が実行されるようにしてもよい。   Note that the user ID candidate selection process according to the present embodiment is executed for the MFP 10 after logout, and is not executed for the MFP 10 before logout. Further, when it is determined that “the user is near the screen for a predetermined time or longer”, the MFP 10 may be turned on, and the user ID candidate selection process according to the present embodiment may be executed.

(変形例)
ユーザID候補の選定処理は、以下に説明する変形例のようにユーザの要求に従い実行するようにしてもよい。図8は、本実施形態にかかるユーザID候補の選定処理の変形例を示すフローチャートである。変形例では、ユーザの操作に応じてIDサジェスト手段15がユーザID候補の選定処理を制御する。
(Modification)
The user ID candidate selection process may be executed according to the user's request as in a modification described below. FIG. 8 is a flowchart showing a modification of the user ID candidate selection process according to the present embodiment. In the modification, the ID suggestion unit 15 controls the user ID candidate selection process in accordance with a user operation.

まず、ユーザがMFP10の画面近傍まで近づくと(ステップS10)、入出力手段16は、IDサジェスト手段15に対して、ユーザIDの一覧取得要求を行う(ステップS11)。ユーザがMFP10の画面の近傍まで近づいたかどうかの判定は、上記画像解析による判定方法や人感知センサーを用いることができる。なお、ユーザがMFP10の画面の近傍まで近づいたとき、ユーザが入出力手段16に対してユーザID候補の選定処理を要求してもよい。   First, when the user approaches the vicinity of the screen of the MFP 10 (step S10), the input / output unit 16 requests the ID suggestion unit 15 to obtain a list of user IDs (step S11). Whether the user has approached the vicinity of the screen of the MFP 10 can be determined using the determination method based on the image analysis or a human sensor. Note that when the user approaches the vicinity of the screen of the MFP 10, the user may request the input / output unit 16 to select a user ID candidate.

次に、サジェスト手段15は画像取得手段12に対してカメラ画像の取得要求を行う(ステップS12)。   Next, the suggestion unit 15 makes a camera image acquisition request to the image acquisition unit 12 (step S12).

画像取得手段12は、カメラ10aが撮影したユーザの顔画像データの取得を要求をし (ステップS13)、顔画像データを取得する(ステップS14)。画像取得手段12は、取得した顔画像データをIDサジェスト手段15に送る(ステップS15)。   The image acquisition means 12 requests acquisition of face image data of the user taken by the camera 10a (step S13), and acquires face image data (step S14). The image acquisition unit 12 sends the acquired face image data to the ID suggestion unit 15 (step S15).

次に、IDサジェスト手段15は、画像解析手段13に対して、画像解析要求を行い(ステップS16)、画像解析手段13から画像解析結果を取得する(ステップS17)。画像解析結果の一例としては、ユーザの顔画像データから抽出された特徴量が挙げられる。   Next, the ID suggestion unit 15 issues an image analysis request to the image analysis unit 13 (step S16), and acquires an image analysis result from the image analysis unit 13 (step S17). An example of the image analysis result is a feature amount extracted from the user's face image data.

次に、IDサジェスト手段15は、類似度算出手段14に対して、取得した顔画像データに基づく類似度算出要求を行う(ステップS18)。類似度算出手段14は、マスターDB40に記憶されているマスターデータ(ユーザID及び画像データ)をキャッシュする(ステップS19,S20)。類似度算出手段14は、キャッシュしたデータを使用して、取得したユーザの顔画像データとキャッシュデータの各顔画像データとの類似度を算出する。IDサジェスト手段15は、類似度算出手段14から類似度を取得する(ステップS21)。   Next, the ID suggestion unit 15 makes a similarity calculation request based on the acquired face image data to the similarity calculation unit 14 (step S18). The similarity calculation means 14 caches master data (user ID and image data) stored in the master DB 40 (steps S19 and S20). The similarity calculation unit 14 uses the cached data to calculate the similarity between the acquired face image data of the user and each face image data of the cache data. The ID suggestion unit 15 acquires the similarity from the similarity calculation unit 14 (step S21).

次に、IDサジェスト手段15は、取得した類似度に基づき、ログイン時にサジェストするユーザIDの候補を選定する(ステップS22)。具体的には、IDサジェスト手段15は、カメラ10aにより取得した顔画像データと類似度の高い順に画像データに対応付けて記憶されているユーザIDを選定する。   Next, the ID suggestion unit 15 selects a user ID candidate to be suggested upon login based on the acquired similarity (step S22). Specifically, the ID suggestion unit 15 selects a user ID stored in association with image data in descending order of similarity to the face image data acquired by the camera 10a.

次に、入出力手段16は、IDサジェスト手段15が選定したユーザIDを取得する(ステップS23)。ユーザが、図9(a)に示すログインボタン10b4を押すと(ステップS24)、入出力手段16は、選定したユーザIDの候補を画面に表示する(ステップS25)。   Next, the input / output unit 16 acquires the user ID selected by the ID suggestion unit 15 (step S23). When the user presses the login button 10b4 shown in FIG. 9A (step S24), the input / output means 16 displays the selected user ID candidates on the screen (step S25).

ユーザIDの候補がサジェストされた画面例を図9(b)に示す。図9(b)に示すように、ユーザが画面から特定のユーザIDを選択すると、図8に示すように、入出力手段16は、選択されたユーザIDを取得する(ステップS26)。ログイン実行手段11は、入出力手段16からユーザIDを取得すると、図9(c)に示すように、ログイン画面を表示して、ユーザIDの欄10eに選択されたユーザID「Tanaka」を自動設定する(ステップS27)。これにより、ユーザがユーザIDを入力する手間を省くことができる。   FIG. 9B shows an example of a screen on which candidate user IDs are suggested. As shown in FIG. 9B, when the user selects a specific user ID from the screen, the input / output unit 16 acquires the selected user ID as shown in FIG. 8 (step S26). When the login execution means 11 obtains the user ID from the input / output means 16, as shown in FIG. 9C, the login execution means 11 displays a login screen and automatically selects the user ID “Tanaka” selected in the user ID column 10e. Set (step S27). This saves the user from having to input the user ID.

なお、図9(b)のユーザIDの選択画面と図9(c)のログイン画面とは、別画面でもよいし同一画面でもよい。この状態で、ユーザが、ログイン画面のパスワードの設定欄10fにパスワードを入力すると、ログイン実行手段11は、設定されたユーザID及びパスワードが情報処理システム1に予め登録されている認証情報と一致するかを判定する。一致する場合、ログイン実行手段11は、入出力手段16を介してログイン成功をユーザに知らせる(ステップS28、S29)。ログインに成功したユーザは、MFP10の利用が可能になる。   The user ID selection screen in FIG. 9B and the login screen in FIG. 9C may be separate screens or the same screen. In this state, when the user inputs a password in the password setting field 10f on the login screen, the login execution unit 11 matches the set user ID and password with the authentication information registered in the information processing system 1 in advance. Determine whether. If they match, the login execution means 11 notifies the user of successful login via the input / output means 16 (steps S28 and S29). A user who has successfully logged in can use the MFP 10.

以上、本実施形態にかかるユーザID候補の選定処理の変形例について説明した。これによれば、既存のユーザID及びパスワードに基づく認証処理にユーザID候補の選定処理の機能を追加することで、既存のシステムを利用して容易に本情報処理システム1を構築することができる。   In the above, the modification of the user ID candidate selection process according to the present embodiment has been described. According to this, this information processing system 1 can be easily constructed by using an existing system by adding a function for selecting a user ID candidate to an authentication process based on an existing user ID and password. .

なお、ログイン実行手段11は、上記ログイン処理において必ずしもユーザの認証処理を行わなくてもよい。その場合、ログイン実行手段11は、ログイン処理において特定されたユーザIDに紐付けられた印刷データや電子文書等の書類へのアクセスを可能としたり、ユーザIDに紐付けられた設定情報に基づくMFP10の利用環境の設定を行ったりしてもよい。   Note that the login execution unit 11 does not necessarily perform user authentication processing in the login processing. In that case, the login execution unit 11 enables access to a document such as print data or an electronic document associated with the user ID specified in the login process, or the MFP 10 based on setting information associated with the user ID. You may set the usage environment.

以上に説明したように、一実施形態及びその変形例に係る情報処理システム1によれば、ユーザIDの候補を選定し、ユーザにサジェストすることができる。これにより、ユーザは、ログイン時、表示されているユーザIDの候補から特定のユーザIDを選択すればよく、ログイン時にユーザIDを入力する手間を省くことができる。また、ユーザは、サジェストされたユーザIDの候補を選択することで、ユーザIDを忘れてしまった場合にもログイン時に対応できる。   As described above, according to the information processing system 1 according to the embodiment and the modification thereof, a user ID candidate can be selected and suggested to the user. Thereby, at the time of login, the user only has to select a specific user ID from the displayed user ID candidates, and it is possible to save the trouble of inputting the user ID at the time of login. In addition, the user can cope with the case of forgetting the user ID by selecting the suggested user ID candidate.

また、本実施形態に係る情報処理システム1では、候補となるユーザIDが画面に表示されるが、自動で候補となるユーザIDによるログイン処理が実行されることはない。つまり、本実施形態によれば、ログイン処理前にユーザによるユーザIDの確認作業を必要とする。これにより、自動ログイン処理時に必要なレベルの顔画像データによるユーザの顔認識の精度までは要求されず、かつ誤認してしまった場合でもMFP10のセキュリティを保つことができる。   Further, in the information processing system 1 according to the present embodiment, the candidate user ID is displayed on the screen, but the login process using the candidate user ID is not automatically executed. That is, according to the present embodiment, the user ID confirmation work is required before the login process. Thereby, the accuracy of the user's face recognition based on the face image data at a level required for the automatic login process is not required, and the security of the MFP 10 can be maintained even if it is misidentified.

[データ更新処理]
次に、一実施形態にかかるマスターDB40のデータ更新処理の一例について、図10を参照しながら説明する。図10は、一実施形態にかかるデータ更新処理例を示すフローチャートである。前提として、マスターDB40に記憶されているユーザID群の数を「n」とし、各ユーザIDに対応付て記憶された画像データ(顔画像)を「Mn」とし、カメラ10aにより取得した顔画像データを「x」と表記する。
[Data update processing]
Next, an example of the data update process of the master DB 40 according to the embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of data update processing according to an embodiment. As a premise, the number of user ID groups stored in the master DB 40 is “n”, the image data (face image) stored in association with each user ID is “Mn”, and the face image acquired by the camera 10a. Data is expressed as “x”.

ログイン実行手段11は、ログイン処理を実行し(ステップS122)、ユーザIDが「Y」についてのログインに成功したかを判定する(ステップS124)。ログインに成功しなかったと判定されたとき、更新処理対象のデータは存在しないため、ステップS122に戻る。   The login execution means 11 executes a login process (step S122), and determines whether the login for the user ID “Y” is successful (step S124). When it is determined that the login has not been successful, there is no data to be updated, and the process returns to step S122.

一方、ログインに成功したと判定されたとき、記憶手段17は、ログインに成功した「Y」のユーザIDがマスターDB40のユーザID群nに含まれているかを判定する(ステップS126)。このとき、記憶手段17は、マスターDB40に保存されているマスターデータを検索してもよいし、マスターDB40からキャッシュしたキャッシュデータを検索してもよい。以下では、キャッシュデータを検索する場合について説明する。   On the other hand, when it is determined that the login is successful, the storage unit 17 determines whether the user ID “Y” that has been successfully logged in is included in the user ID group n of the master DB 40 (step S126). At this time, the storage unit 17 may search for master data stored in the master DB 40 or may search cache data cached from the master DB 40. Hereinafter, a case where cache data is searched will be described.

記憶手段17は、ログインに成功したユーザID「Y」がキャッシュデータに含まれていないと判定した場合、マスターDB40にユーザID群nに新しいユーザID「Y」を追加する。また、記憶手段17は、マスターDB40のユーザID「Y」に対応付けて画像データ「Mn」にカメラ10aにより取得した顔画像データ「x」を追加する。   If the storage unit 17 determines that the user ID “Y” that has been successfully logged in is not included in the cache data, the storage unit 17 adds a new user ID “Y” to the user ID group n in the master DB 40. Further, the storage unit 17 adds the face image data “x” acquired by the camera 10 a to the image data “Mn” in association with the user ID “Y” of the master DB 40.

一方、記憶手段17は、ログインに成功したユーザID「Y」がキャッシュデータに含まれていると判定した場合、ステップS128をスキップする。   On the other hand, if the storage unit 17 determines that the user ID “Y” that has been successfully logged in is included in the cache data, the storage unit 17 skips step S128.

次に、記憶手段17は、データの更新が必要かを判定する(ステップS130)。記憶手段17は、データの更新が必要と判定した場合、ユーザID「Y」に対応付けてマスターDB40に記憶されている画像データ「Mn」を更新し(ステップS132)、本処理を終了する。   Next, the memory | storage means 17 determines whether the update of data is required (step S130). When it is determined that the data needs to be updated, the storage unit 17 updates the image data “Mn” stored in the master DB 40 in association with the user ID “Y” (step S132), and ends this process.

更新処理の一例としては、マスターDB40のユーザID「Y」に対応付けて記憶されている画像データ「Mn」に顔画像データ「x」を追加する方法、画像データ「Mn」を顔画像データ「x」で上書きする方法などが挙げられる。更新処理の他の例としては、顔画像データ「x」を追加したときの画像データ「Mn」の平均値を画像データ「Mn」とする方法が挙げられる。更新処理の他の例としては、画像データ「Mn」に上限値を設け、最新の画像データである顔画像データ「x」を含む上限枚数の画像データ「Mn」を記憶し、それより古い画像データを削除する方法が挙げられる。   As an example of the update processing, a method of adding the face image data “x” to the image data “Mn” stored in association with the user ID “Y” of the master DB 40, the image data “Mn” is converted to the face image data “ a method of overwriting with “x”. As another example of the update process, there is a method in which the average value of the image data “Mn” when the face image data “x” is added is the image data “Mn”. As another example of the update processing, an upper limit value is set for the image data “Mn”, the upper limit number of image data “Mn” including the face image data “x” which is the latest image data is stored, and images older than that are stored. There is a method of deleting data.

ステップS130にてデータの更新が不要と判定された場合、本処理を終了する。データの更新が不要と判定される一例としては、マスターDB40のユーザID「Y」に対応付けて記憶されている画像データ「Mn」の直前の更新時刻から所定時間経過前のときには更新が不要と判定する方法が挙げられる。また、データの更新が不要と判定される他の例としては、類似度が予め定められた閾値より低い顔画像データの場合には更新が不要と判定する方法が挙げられる。   If it is determined in step S130 that the data update is not necessary, the process is terminated. As an example in which it is determined that the data update is unnecessary, the update is unnecessary when a predetermined time has elapsed from the update time immediately before the image data “Mn” stored in association with the user ID “Y” of the master DB 40. The method of judging is mentioned. Another example in which it is determined that the data update is unnecessary is a method of determining that the update is not required in the case of face image data whose similarity is lower than a predetermined threshold.

以上、一実施形態にかかるマスターDB40のデータ更新処理の一例について説明した。これによれば、マスターDB40のデータを更新することにより、候補となるユーザIDの選定の精度を上げることができる。   The example of the data update process of the master DB 40 according to the embodiment has been described above. According to this, by updating the data of the master DB 40, it is possible to improve the accuracy of selecting candidate user IDs.

(ハードウェア構成例)
最後に、本実施形態に係るMFP10のハードウェア構成例について、図11を参照して説明する。図11は、本実施形態に係るMFP10のハードウェア構成例を示す図である。以下では、MFP10のハードウェア構成例として説明するが、サーバ20のハードウェア構成も同様の構成とすることができる。
(Hardware configuration example)
Finally, a hardware configuration example of the MFP 10 according to the present embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating a hardware configuration example of the MFP 10 according to the present embodiment. Hereinafter, an example of the hardware configuration of the MFP 10 will be described, but the hardware configuration of the server 20 may be the same.

図11に示すように、MFP10は、入力装置101、表示装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107、及びHDD(Hard Disk Drive)108などを備え、それぞれがバスBで相互に接続されている。   11, the MFP 10 includes an input device 101, a display device 102, an external I / F 103, a RAM (Random Access Memory) 104, a ROM (Read Only Memory) 105, a CPU (Central Processing Unit) 106, a communication I / F. F107, HDD (Hard Disk Drive) 108, and the like are connected to each other via a bus B.

入力装置101は、キーボードやマウスなどを含み、MFP10に各操作信号を入力するのに用いられる。表示装置102は、ディスプレイ10bにより実現され、ユーザにサジェストするユーザIDを表示する。表示装置102は、タッチ面を有するタッチパネルを有し、入力装置101としても機能する。   The input device 101 includes a keyboard and a mouse, and is used to input each operation signal to the MFP 10. The display device 102 is realized by the display 10b and displays a user ID to be suggested to the user. The display device 102 includes a touch panel having a touch surface, and also functions as the input device 101.

通信I/F107は、MFP10をネットワークに接続するインタフェースである。これにより、MFP10は、通信I/F107を介して、サーバ20等と通信可能となる。   A communication I / F 107 is an interface that connects the MFP 10 to a network. Thereby, the MFP 10 can communicate with the server 20 or the like via the communication I / F 107.

HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、装置全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。例えば、HDD108には、マスターDB40のデータ、ユーザID候補の選定処理用のプログラム及びデータ更新処理用のプログラム等が格納されてもよい。   The HDD 108 is a non-volatile storage device that stores programs and data. The stored programs and data include basic software and application software that control the entire apparatus. For example, the HDD 108 may store data of the master DB 40, a user ID candidate selection process program, a data update process program, and the like.

外部I/F103は、外部装置とのインタフェースである。外部装置には、記録媒体103aなどがある。これにより、MFP10は、外部I/F103を介して記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、フロッピー(商標又は登録商標)ディスク、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)などがある。   The external I / F 103 is an interface with an external device. The external device includes a recording medium 103a. Accordingly, the MFP 10 can read and / or write the recording medium 103a via the external I / F 103. The recording medium 103a includes a floppy (trademark or registered trademark) disk, CD (Compact Disk), DVD (Digital Versatile Disk), SD memory card (SD Memory card), USB memory (Universal Serial Bus memory), and the like. is there.

ROM105は、電源を切っても内部データを保持することができる不揮発性の半導体メモリ(記憶装置)である。ROM105には、ネットワーク設定などのプログラムやデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。CPU106は、上記記憶装置(例えば「HDD108」や「ROM105」など)から、プログラムやデータをRAM104上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。   The ROM 105 is a nonvolatile semiconductor memory (storage device) that can retain internal data even when the power is turned off. The ROM 105 stores programs and data such as network settings. The RAM 104 is a volatile semiconductor memory (storage device) that temporarily stores programs and data. The CPU 106 is an arithmetic unit that realizes control of the entire apparatus and mounting functions by reading programs and data from the storage device (for example, “HDD 108”, “ROM 105”, etc.) onto the RAM 104 and executing processing.

上記ハードウェア構成により、本実施形態に係るMFP10は、ユーザにサジェストするユーザIDを画面に表示することができる。例えば、CPU106が、ROM105やHDD108内に格納されたデータ及びプログラムを用いてユーザID候補の選定処理及びデータ更新処理を実行し、これによりユーザIDの候補を表示し、ユーザにサジェストすることができる。なお、マスターDB40は、RAM104、HDD108、又はネットワークを介してMFP10に接続されるクラウド上のサーバー等に格納され得る。   With the above hardware configuration, the MFP 10 according to the present embodiment can display a user ID to be suggested to the user on the screen. For example, the CPU 106 can execute user ID candidate selection processing and data update processing using data and programs stored in the ROM 105 and HDD 108, thereby displaying user ID candidates and suggesting them to the user. . The master DB 40 can be stored in the RAM 104, the HDD 108, or a server on the cloud connected to the MFP 10 via the network.

以上、情報処理装置、プログラム、情報処理システム及び情報処理方法を上記実施形態により説明したが、本発明にかかる情報処理装置、プログラム、情報処理システム及び情報処理方法は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。   The information processing apparatus, the program, the information processing system, and the information processing method have been described in the above embodiment. However, the information processing apparatus, the program, the information processing system, and the information processing method according to the present invention are limited to the above embodiment. Rather, various modifications and improvements can be made within the scope of the present invention. In addition, when there are a plurality of the above-described embodiments and modifications, they can be combined within a consistent range.

例えば、上記実施形態に係る情報処理システム1の構成は一例であり、本発明の範囲を限定するものではなく、用途や目的に応じて様々なシステム構成例があることは言うまでもない。   For example, the configuration of the information processing system 1 according to the above-described embodiment is merely an example, and does not limit the scope of the present invention. It goes without saying that there are various system configuration examples depending on applications and purposes.

例えば、MFP10及びサーバ20が、ネットワーク30を介して互いに接続されているシステム形態は、本実施形態に係る情報処理システム1の一態様であり、これに限定されない。例えば、本実施形態に係る情報処理システム1に含まれるMFP10及びサーバ20のそれぞれの台数は、1台又は2台以上であり得る。ユーザID候補の選定処理は、複数台のサーバ20で分散処理してもよい。なお、用途や目的に応じて、複数台のうち1台のサーバ20に選択的にユーザID候補の選定処理の機能を集約させてもよい。   For example, a system configuration in which the MFP 10 and the server 20 are connected to each other via the network 30 is an aspect of the information processing system 1 according to the present embodiment, and is not limited thereto. For example, the number of MFPs 10 and servers 20 included in the information processing system 1 according to the present embodiment may be one or two or more. The user ID candidate selection process may be distributed by a plurality of servers 20. In addition, according to a use and the objective, you may collect the function of a user ID candidate selection process selectively in one server 20 among multiple units.

また、上記実施形態に係るユーザIDは、ユーザを識別するためのユーザ識別情報の一例である。ユーザ識別情報としては、ユーザの氏名やニックネームであってもよい。   The user ID according to the embodiment is an example of user identification information for identifying a user. The user identification information may be a user's name or nickname.

1:情報処理システム
10:MFP
10a:カメラ
10b:ディスプレイ
11:ログイン実行手段
12:画像取得手段
13:画像解析手段
14:類似度算出手段
15:IDサジェスト手段
16:入出力手段
17:記憶手段
20:サーバ
30:ネットワーク
40:マスターDB
1: Information processing system 10: MFP
10a: Camera 10b: Display 11: Login execution means 12: Image acquisition means 13: Image analysis means 14: Similarity calculation means 15: ID suggestion means 16: Input / output means 17: Storage means 20: Server 30: Network 40: Master DB

特開2009−259269号公報JP 2009-259269 A

Claims (14)

ユーザの身体に関する識別情報を取得する取得手段と、
前記取得したユーザの身体に関する識別情報と、記憶手段が記憶する複数のユーザの身体に関する識別情報と、の類似度を算出する算出手段と、
前記算出した類似度に応じて、前記複数のユーザの身体に関する識別情報に対応付けて前記記憶手段が記憶する1又は複数のユーザ識別情報を画面に表示する表示手段と、
前記表示された1又は複数のユーザ識別情報から特定されたユーザ識別情報によるログイン処理を実行する実行手段と、
を有する情報処理装置。
Obtaining means for obtaining identification information about the user's body;
Calculating means for calculating the similarity between the acquired identification information relating to the user's body and identification information relating to the plurality of user bodies stored in the storage means;
Display means for displaying on the screen one or more user identification information stored in the storage means in association with identification information related to the body of the plurality of users according to the calculated similarity;
Execution means for executing login processing based on user identification information specified from the displayed one or more user identification information;
An information processing apparatus.
前記表示手段は、前記算出した類似度が高い順に前記複数のユーザの身体に関する識別情報に対応付けられた所定の数のユーザ識別情報を一画面に表示する又は複数画面に切り替えて表示する、
請求項1に記載の情報処理装置。
The display means displays a predetermined number of user identification information associated with identification information related to the body of the plurality of users in a descending order of the calculated similarity on one screen, or switches to a plurality of screens for display.
The information processing apparatus according to claim 1.
前記表示手段は、前記算出した類似度が所定の閾値以上の前記複数のユーザの身体に関する識別情報に対応付けられたユーザ識別情報を一画面に表示する又は複数画面に切り替えて表示する、
請求項1又は2に記載の情報処理装置。
The display means displays the user identification information associated with the identification information related to the body of the plurality of users having the calculated similarity equal to or greater than a predetermined threshold on one screen, or switches to a plurality of screens for display.
The information processing apparatus according to claim 1 or 2.
ユーザが所定時間以上前記画面の近傍にいると判定されたことに応じて、前記取得手段によるユーザの身体に関する識別情報の取得、前記算出手段による類似度の算出及び前記表示手段による前記1又は複数のユーザ識別情報の画面の表示を自動で実行する、
請求項1〜3のいずれか一項に記載の情報処理装置。
When it is determined that the user has been in the vicinity of the screen for a predetermined time or more, the acquisition unit acquires identification information about the user's body, the calculation unit calculates similarity, and the display unit uses the one or more items. Automatically display the screen of user identification information of
The information processing apparatus according to any one of claims 1 to 3.
前記ユーザの身体に関する識別情報は、ユーザの身体の全部又は一部の画像に関する情報であり、
前記取得手段は、前記ユーザが所定時間以上前記画面の近傍にいると判定されたことに応じて前記ユーザの身体の全部又は一部の画像を取得する、
請求項4に記載の情報処理装置。
The identification information related to the user's body is information related to an image of all or part of the user's body,
The acquisition means acquires an image of all or a part of the user's body in response to the user being determined to be in the vicinity of the screen for a predetermined time or more.
The information processing apparatus according to claim 4.
前記取得手段は、前記画面がログアウト後の画面である場合、前記ユーザが所定時間以上前記画面の近傍にいると判定されたことに応じて前記ユーザの身体の全部又は一部の画像を取得する、
請求項5に記載の情報処理装置。
When the screen is a screen after logout, the acquisition unit acquires an image of all or a part of the user's body in response to determining that the user has been in the vicinity of the screen for a predetermined time or more. ,
The information processing apparatus according to claim 5.
前記実行手段は、前記ユーザの画面操作により、表示されている1又は複数のユーザ識別情報のうちから選択されたユーザ識別情報を用いてログイン処理を実行する、
請求項1〜6のいずれか一項に記載の情報処理装置。
The execution means executes login processing using user identification information selected from one or a plurality of displayed user identification information by the user's screen operation.
The information processing apparatus according to any one of claims 1 to 6.
前記実行手段は、前記ログイン処理において前記特定されたユーザ識別情報を用いてユーザの認証処理を実行する、
請求項7に記載の情報処理装置。
The execution means executes a user authentication process using the specified user identification information in the login process.
The information processing apparatus according to claim 7.
前記実行手段は、前記選択されたユーザ識別情報に対応付けて前記取得したユーザの身体に関する識別情報を前記記憶手段に記憶する、
請求項7又は8に記載の情報処理装置。
The execution means stores the acquired identification information about the user's body in the storage means in association with the selected user identification information.
The information processing apparatus according to claim 7 or 8.
前記記憶手段は、前記選択されたユーザ識別情報に対応付けて記憶されているユーザの身体に関する識別情報を、前記取得したユーザの身体に関する識別情報に基づき更新する、
請求項7又は8に記載の情報処理装置。
The storage means updates identification information relating to the user's body stored in association with the selected user identification information based on the acquired identification information relating to the user's body.
The information processing apparatus according to claim 7 or 8.
前記表示手段は、ユーザのログイン指示に応じて前記1又は複数のユーザ識別情報を表示する、
請求項1〜10のいずれか一項に記載の情報処理装置。
The display means displays the one or more user identification information in response to a user login instruction.
The information processing apparatus according to any one of claims 1 to 10.
ログイン処理をコンピュータに実行させるためのプログラムであって、
ユーザの身体に関する識別情報を取得する処理と、
前記取得したユーザの身体に関する識別情報と、記憶手段が記憶する複数のユーザの身体に関する識別情報と、の類似度を算出する処理と、
前記算出した類似度に応じて、前記複数のユーザの身体に関する識別情報に対応付けて前記記憶手段が記憶する1又は複数のユーザ識別情報を画面に表示する処理と、
前記表示された1又は複数のユーザ識別情報から特定されたユーザ識別情報によるログイン処理を実行する処理と、
を有するプログラム。
A program for causing a computer to execute a login process,
Processing to obtain identification information about the user's body;
A process of calculating the similarity between the acquired identification information about the user's body and the identification information about the plurality of user's bodies stored in the storage unit;
A process of displaying on the screen one or more user identification information stored in the storage means in association with identification information related to the bodies of the plurality of users according to the calculated similarity;
A process of executing a login process based on the user identification information identified from the displayed one or more user identification information;
A program with
情報処理装置のログイン処理を行う情報処理システムであって、
所定時間以上前記情報処理装置の画面の近傍にいると判定されたユーザの身体に関する識別情報を取得する手段と、
前記取得したユーザの身体に関する識別情報と、記憶手段が記憶する複数のユーザの身体に関する識別情報と、の類似度を算出する手段と、
前記算出した類似度に応じて、前記複数のユーザの身体に関する識別情報に対応付けて前記記憶手段が記憶する1又は複数のユーザ識別情報を前記情報処理装置の画面に表示する手段と、
前記表示された1又は複数のユーザ識別情報から特定されたユーザ識別情報によるログイン処理を実行する手段と、
を有する情報処理システム。
An information processing system for performing login processing of an information processing apparatus,
Means for acquiring identification information relating to the body of the user determined to be in the vicinity of the screen of the information processing apparatus for a predetermined time or more;
Means for calculating similarity between the acquired identification information about the user's body and identification information about the plurality of user's bodies stored in the storage means;
Means for displaying on the screen of the information processing apparatus one or more user identification information stored in the storage means in association with identification information relating to the bodies of the plurality of users according to the calculated similarity;
Means for executing a login process using user identification information specified from the displayed one or more user identification information;
An information processing system.
情報処理装置のログイン処理をコンピュータが実行する情報処理方法であって、
所定時間以上前記情報処理装置の画面の近傍にいると判定されたユーザの身体に関する識別情報を取得する処理と、
前記取得したユーザの身体に関する識別情報と、記憶手段が記憶する複数のユーザの身体に関する識別情報と、の類似度を算出する処理と、
前記算出した類似度に応じて、前記複数のユーザの身体に関する識別情報に対応付けて前記記憶手段が記憶する1又は複数のユーザ識別情報を前記情報処理装置の画面に表示する処理と、
前記表示された1又は複数のユーザ識別情報から特定されたユーザ識別情報によるログイン処理を実行する処理と、
を有する情報処理方法。
An information processing method in which a computer executes login processing of an information processing device,
Processing for acquiring identification information relating to the body of the user determined to be in the vicinity of the screen of the information processing apparatus for a predetermined time or more;
A process of calculating the similarity between the acquired identification information about the user's body and the identification information about the plurality of user's bodies stored in the storage unit;
A process of displaying, on the screen of the information processing apparatus, one or a plurality of user identification information stored in the storage unit in association with identification information related to the bodies of the plurality of users according to the calculated similarity;
A process of executing a login process based on the user identification information identified from the displayed one or more user identification information;
An information processing method comprising:
JP2014123200A 2014-06-16 2014-06-16 Information processing apparatus, program, information processing system, and information processing method Expired - Fee Related JP6357900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014123200A JP6357900B2 (en) 2014-06-16 2014-06-16 Information processing apparatus, program, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014123200A JP6357900B2 (en) 2014-06-16 2014-06-16 Information processing apparatus, program, information processing system, and information processing method

Publications (2)

Publication Number Publication Date
JP2016004348A true JP2016004348A (en) 2016-01-12
JP6357900B2 JP6357900B2 (en) 2018-07-18

Family

ID=55223599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014123200A Expired - Fee Related JP6357900B2 (en) 2014-06-16 2014-06-16 Information processing apparatus, program, information processing system, and information processing method

Country Status (1)

Country Link
JP (1) JP6357900B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028759A (en) * 2016-08-16 2018-02-22 富士ゼロックス株式会社 Program and information processing apparatus
JP2019176268A (en) * 2018-03-27 2019-10-10 コニカミノルタ株式会社 Server, image processing apparatus, custom screen display method, and custom screen display program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052165A (en) * 1999-08-04 2001-02-23 Mitsubishi Electric Corp Device and method for collating data
JP2006047765A (en) * 2004-08-05 2006-02-16 Canon Inc Image forming apparatus, control method, and image forming system
JP2010074458A (en) * 2008-09-18 2010-04-02 Aiphone Co Ltd Intercom system
JP2010093456A (en) * 2008-10-06 2010-04-22 Riso Kagaku Corp Printing device
JP2012152355A (en) * 2011-01-25 2012-08-16 Fujitsu Ltd Biometric authentication device, control program for controlling biometric authentication device, control method for controlling biometric authentication device, and control method for biometric authentication system
JP2013065118A (en) * 2011-09-15 2013-04-11 Toshiba Corp Face recognition device and face recognition method
US20130251216A1 (en) * 2012-03-23 2013-09-26 Microsoft Corporation Personal Identification Combining Proximity Sensing with Biometrics
JP2014026596A (en) * 2012-07-30 2014-02-06 Canon Inc Image processor, control method thereof, and control program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052165A (en) * 1999-08-04 2001-02-23 Mitsubishi Electric Corp Device and method for collating data
JP2006047765A (en) * 2004-08-05 2006-02-16 Canon Inc Image forming apparatus, control method, and image forming system
JP2010074458A (en) * 2008-09-18 2010-04-02 Aiphone Co Ltd Intercom system
JP2010093456A (en) * 2008-10-06 2010-04-22 Riso Kagaku Corp Printing device
JP2012152355A (en) * 2011-01-25 2012-08-16 Fujitsu Ltd Biometric authentication device, control program for controlling biometric authentication device, control method for controlling biometric authentication device, and control method for biometric authentication system
JP2013065118A (en) * 2011-09-15 2013-04-11 Toshiba Corp Face recognition device and face recognition method
US20130251216A1 (en) * 2012-03-23 2013-09-26 Microsoft Corporation Personal Identification Combining Proximity Sensing with Biometrics
JP2014026596A (en) * 2012-07-30 2014-02-06 Canon Inc Image processor, control method thereof, and control program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028759A (en) * 2016-08-16 2018-02-22 富士ゼロックス株式会社 Program and information processing apparatus
JP2019176268A (en) * 2018-03-27 2019-10-10 コニカミノルタ株式会社 Server, image processing apparatus, custom screen display method, and custom screen display program

Also Published As

Publication number Publication date
JP6357900B2 (en) 2018-07-18

Similar Documents

Publication Publication Date Title
JP6751072B2 (en) Biometric system
US9760274B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium
US20160147987A1 (en) Biometrics-based authentication method and apparatus
US20170039359A1 (en) Electronic device controlling and user registration method
US20150077799A1 (en) Information processing system, input/output device, and authentication method
KR20160114108A (en) Dynamic keyboard and touchscreen biometrics
CN104520799A (en) User input processing with eye tracking
US10863056B2 (en) Login support system that supports login to electronic apparatus
JP7131761B2 (en) Method and apparatus for birefringence-based biometric authentication
JP6357900B2 (en) Information processing apparatus, program, information processing system, and information processing method
CN111191209A (en) Fingerprint unlocking method and device and electronic equipment
US20160188856A1 (en) Authentication device, authentication method, and non-transitory computer readable medium
JP6825503B2 (en) Information processing equipment, information processing systems, information processing methods and programs
US11630891B2 (en) Image processing apparatus with biometric authentication and biometric authentication method for image processing apparatuses
CN112311949B (en) Image forming apparatus, control method thereof, and storage medium storing computer program
JP6862899B2 (en) Information processing device, biometric authentication method, biometric authentication program
US10356613B2 (en) Information processing device and information processing system that executes a process based on a user operation received from an operator
JP7384970B2 (en) User authentication device, user authentication method, and image forming device
US9076031B2 (en) Image capture apparatus, control method of image capture apparatus, and recording medium
JP6988160B2 (en) Information processing equipment and information processing programs
CN113454634A (en) Information processing system, information processing apparatus, information processing method, and program
CN109154987B (en) The fingerprint identification system and method for reduced waiting time are provided
KR20180075221A (en) Electric apparatus and operation method thereof
US10489571B2 (en) Information processing apparatus determining propriety of use based on authentication result of fingerprint authentication process, control method therefor, and storage medium storing control program therefor
JP2018067168A (en) Control apparatus, control method, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180604

R151 Written notification of patent or utility model registration

Ref document number: 6357900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees