JP4282091B1 - Terminal device, information processing method, and program - Google Patents
Terminal device, information processing method, and program Download PDFInfo
- Publication number
- JP4282091B1 JP4282091B1 JP2008227176A JP2008227176A JP4282091B1 JP 4282091 B1 JP4282091 B1 JP 4282091B1 JP 2008227176 A JP2008227176 A JP 2008227176A JP 2008227176 A JP2008227176 A JP 2008227176A JP 4282091 B1 JP4282091 B1 JP 4282091B1
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- area
- application
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Processing (AREA)
Abstract
【課題】移動する人が注目している対象物を特定し、対象物内で興味を示しているエリアを判定すると共に、情動反応を算出して客観的な結果を得ることにより、行動要因分析の高精度化を実現する。
【解決手段】計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報、方向及び対象物1の位置情報に基づいて、利用者2が注目している対象物1を特定する。そして、行動分析・アプリケーション制御部43は、視野映像内のマーカを識別し、対象物情報に基づいて利用者2の視点位置から、その対象物1内において利用者2が興味を示しているエリアを判定し、情動反応を算出する。そして、移動体端末5の機能制御部51は、利用者2が興味を示しているエリアに対応付けられたアプリケーションを起動する。アプリケーションの起動に伴う利用者2のコンバージョン情報を得ることにより、利用者2の行動を分析することできる。
【選択図】図4An object of the present invention is to analyze a behavior factor by identifying an object of interest by a moving person, determining an area of interest in the object, and calculating an objective response to obtain an objective result. Realization of high accuracy.
A behavior analysis / application control unit 43 of a measuring device 4 identifies a target object 1 that a user 2 is paying attention to based on the position information and direction of the user 2 and the position information of the target object 1. . Then, the behavior analysis / application control unit 43 identifies the marker in the visual field image, and from the viewpoint position of the user 2 based on the object information, the area where the user 2 is interested in the object 1 And emotional reaction is calculated. And the function control part 51 of the mobile terminal 5 starts the application matched with the area where the user 2 is interested. By obtaining the conversion information of the user 2 accompanying the activation of the application, the behavior of the user 2 can be analyzed.
[Selection] Figure 4
Description
本発明は、利用者の行動を分析するために用いる端末装置、情報処理方法及びプログラムに関し、特に、移動する利用者が注目する対象物を特定し、対象物内のエリアを判定し、エリアに関するアプリケーションを起動して利用者の行動に関する情報を収集する技術に関する。 The present invention relates to a terminal device, an information processing method, and a program used for analyzing a user's behavior, and in particular, to identify an object that a moving user is interested in , determine an area in the object, and relate to the area. The present invention relates to a technique for starting an application and collecting information on user behavior .
従来、コンテンツに対する興味関心度合いを評価するシステムとして、人間の眼球運動に基づくものが知られている(特許文献1を参照)。このシステムは、人間の情動反応が眼球運動に表れることに着目し、表示装置に表示されたコンテンツに対する利用者の視点滞留時間または瞳孔径を算出することによって、コンテンツへの興味関心度合いを定量的に算出し、コンテンツを評価するものである。 Conventionally, a system based on human eye movement is known as a system for evaluating the degree of interest in content (see Patent Document 1). This system focuses on the fact that human emotional responses appear in eye movements, and calculates the user's viewpoint dwell time or pupil diameter for the content displayed on the display device, thereby quantitatively determining the degree of interest in the content. The content is calculated and evaluated.
このようなシステムにおいて、利用者の視点滞留時間及び瞳孔径は、利用者の視線及び眼球画像に基づいて計測される。利用者の視線を検出するためには、例えば、眼球へ赤外線を照射して撮影した眼球画像と、赤外線を照射していないときに撮影した眼球画像との差分画像が用いられる(特許文献2を参照)。また、利用者の視線を一層精度高く検出するために、眼球形状モデルを用いる技術も知られている(非特許文献1を参照)。 In such a system, the user's viewpoint dwell time and pupil diameter are measured based on the user's line of sight and eyeball image. In order to detect the user's line of sight, for example, a difference image between an eyeball image captured by irradiating the eyeball with infrared rays and an eyeball image captured when the infrared rays are not irradiated is used (see Patent Document 2). reference). In addition, a technique using an eyeball shape model is also known in order to detect a user's line of sight with higher accuracy (see Non-Patent Document 1).
ところで、利用者の眼球を撮影するカメラ、及び、利用者が実際に見ているコンテンツ等を撮影するカメラが設けられためがねが知られている(非特許文献2を参照)。このめがねは、カメラにより撮影された眼球画像及びコンテンツ等の視野映像を格納する記録媒体も備えている。利用者がこのめがねをかけることにより、カメラで撮影した眼球画像及び視野映像が記録媒体に格納される。そして、制御装置は、記録媒体から眼球画像及び視野映像を読み出し、画像処理を行うことにより、視野映像内の視点位置、視点軌跡、滞留時間、瞳孔径、瞬目回数等を算出する。 By the way, it is known that a camera for photographing a user's eyeball and a camera for photographing a content actually viewed by the user are provided (see Non-Patent Document 2). The eyeglasses are also provided with a recording medium for storing eyeball images taken by a camera and visual field images such as contents. When the user wears the glasses, the eyeball image and the field-of-view image captured by the camera are stored in the recording medium. Then, the control device reads the eyeball image and the visual field image from the recording medium and performs image processing to calculate the viewpoint position, the viewpoint locus, the residence time, the pupil diameter, the number of blinks, and the like in the visual field image.
一方、携帯電話等の移動体端末を用いたナビゲーションシステムが知られている(特許文献3を参照)。このシステムは、移動体端末から情報を収集し、収集した情報を分析して加工し、ナビゲーションに関する各種の情報を生成して移動体端末へ送信するものである。例えば、移動体端末から利用者の位置情報を行動結果として収集し、予め設定された行動予定と収集した行動結果との間の違いを分析する。このようにして分析された結果は、マーケティング等の集計のために利用される。 On the other hand, a navigation system using a mobile terminal such as a mobile phone is known (see Patent Document 3). This system collects information from a mobile terminal, analyzes and processes the collected information, generates various types of information related to navigation, and transmits the information to the mobile terminal. For example, user location information is collected from the mobile terminal as an action result, and the difference between the preset action schedule and the collected action result is analyzed. The result analyzed in this way is used for tabulation such as marketing.
前述した特許文献1のシステムは、表示装置に表示されたコンテンツの画面を利用者が見ることにより、興味関心度合いを算出してコンテンツを評価する。このため、コンテンツが表示される画面を予め用意し、利用者が表示装置の前でそのコンテンツを見る必要があり、コンテンツを評価するための準備に手間がかかるという問題があった。また、利用者が様々な場所へ移動し、例えば、移動先で看板を見たときに、その看板内で注目したコンテンツ等が特定され、そのコンテンツ等に対応した利用者の行動が分析されるとすると、その分析結果は利用者及びコンテンツ提供者等にとって有用なものになり得る。
In the system disclosed in
例えば、前述した非特許文献2のめがねを用いたシステムを想定した場合、そのめがねによって、移動する利用者が実際に見た視野映像を得ることができると共に、視野映像内の視点位置における興味関心度合いを算出することができる。しかしながら、利用者が例えば看板を見た場合、このシステムでは、視野映像が看板内のどの位置に存在するのか、利用者が看板内のどの箇所に興味をもったのか、また、利用者が看板内のどのコンテンツに注目したのかについて判断することができない。したがって、特許文献1のシステムに非特許文献2のめがめを適用したシステムを想定した場合であっても、移動する利用者の行動を分析することができず、有用な情報を生成することもできない。
For example, when the system using the glasses of Non-Patent
一般に、人間の行動を分析するには、例えばアンケートに対する回答を得て、その回答を集計する必要がある。しかし、このアンケートによる行動分析は主観的なものであるから、必ずしも客観的な分析結果が得られるとは限らない。 In general, in order to analyze human behavior, for example, it is necessary to obtain answers to a questionnaire and tabulate the answers. However, since the behavioral analysis by the questionnaire is subjective, objective analysis results are not always obtained.
そこで、本発明は上記課題を解決するためになされたものであり、その目的は、移動している人に対して行動分析を行う場合に、その人が注目している対象物を特定し、対象物内のエリアを判定し、エリアに関するアプリケーションを起動して利用者の行動に関する情報を収集し、客観的な結果を得ることにより、行動要因分析の高精度化を実現可能な端末装置、情報処理方法及びプログラムを提供することにある。 Therefore, the present invention has been made in order to solve the above-described problem, and its purpose is to identify an object that the person is paying attention to when performing behavior analysis on a moving person , Terminal device and information that can achieve high-precision behavioral factor analysis by determining the area within the target object, collecting information about user behavior by starting applications related to the area, and obtaining objective results It is to provide a processing method and a program.
上記目的を達成するために、請求項1の発明は、移動する利用者が携帯する装置であって、前記移動する利用者が注目している対象物を特定し、前記対象物内に配置された複数のマーカにより囲まれるエリアを判定し、前記エリアに関するアプリケーションを起動する端末装置において、対象物の存在位置を示す位置情報、前記対象物内に配置されたマーカの存在位置を示す位置情報、及び、複数のマーカにより囲まれる前記エリアと前記マーカとの関係を示す関係情報を含む対象物情報を記憶する対象物情報記憶手段と、前記対象物内のエリアと前記エリアに関するアプリケーションを起動するためのアプリケーション情報とを対応付けて記憶するアプリケーション情報記憶手段と、前記利用者の移動に伴って変化する移動距離が所定距離以上である場合に、前記利用者の現在の存在位置を基点とした所定範囲を定める情報を含む取得要求を、ネットワークを介して、対象物情報及びアプリケーション情報を管理するサーバへ送信し、前記サーバから、前記取得要求における所定範囲内に設置された対象物についての対象物情報、及び前記対象物内のエリアに対応付けられたアプリケーション情報を受信し、前記対象物情報記憶手段及びアプリケーション情報記憶手段にそれぞれ格納する対象物情報及びアプリケーション情報収集手段と、前記対象物情報記憶手段に格納された対象物の位置情報を読み出し、前記利用者の現在の存在位置を基点とした前記利用者が向いている方向の所定範囲内に、前記読み出した対象物の位置情報が示す存在位置が含まれる場合に、前記対象物を、前記利用者が注目している対象物として特定する対象物特定手段と、前記利用者が向いている前方が撮影された視野映像から、前記対象物特定手段により特定された対象物に配置されたマーカを識別し、前記識別したマーカの位置情報を前記対象物情報記憶手段から読み出し、前記利用者が見ている視点位置と、前記読み出したマーカの位置情報が示すマーカ位置とにより、前記視点位置を囲む複数のマーカを特定し、前記対象物情報記憶手段に格納されたマーカとエリアとの関係情報を読み出し、前記複数のマーカが囲むエリアを特定し、前記特定したエリアに前記利用者の視点位置が所定時間以上滞留している場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定するエリア判定手段と、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアへの視点滞留時間に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動するアプリケーション起動手段と、前記アプリケーション起動手段によるアプリケーションの起動に伴って、前記利用者の入力操作を、前記利用者が注目していた対象物内のエリアに対する行動情報として収集する情報収集手段と、を備えたことを特徴とする。
In order to achieve the above object, the invention of
また、請求項2の発明は、請求項1に記載の端末装置において、前記エリア判定手段が、前記特定したエリアに前記利用者の視点位置が存在し、前記利用者の眼球の瞳孔径が所定長以上である場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する、ことを特徴とする。 In addition, according to a second aspect of the present invention, in the terminal device according to the first aspect, the area determining means has the viewpoint position of the user in the specified area, and a pupil diameter of the user's eyeball is predetermined. When the length is equal to or greater than the length, the identified area is determined as an area in the target object that the user is paying attention to.
また、請求項3の発明は、請求項1または2に記載の端末装置において、前記アプリケーション起動手段が、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアに視点が滞留したときの眼球の瞳孔径に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する、ことを特徴とする。
Further, the invention according to
また、請求項4の発明は、請求項1から3までのいずれか一項に記載の端末装置において、前記アプリケーション情報を、ウェブページを指定するURLとする、ことを特徴とする。 According to a fourth aspect of the present invention, in the terminal device according to any one of the first to third aspects, the application information is a URL designating a web page.
また、請求項5の発明は、移動する利用者が携帯する装置が、対象物の存在位置を示す位置情報、前記対象物内に配置されたマーカの存在位置を示す位置情報、及び、複数のマーカにより囲まれる前記エリアと前記マーカとの関係を示す関係情報を含む対象物情報を記憶する対象物情報記憶手段と、前記対象物内のエリアと前記エリアに関するアプリケーションを起動するためのアプリケーション情報とを対応付けて記憶するアプリケーション情報記憶手段と、対象物情報及びアプリケーション情報収集手段と、対象物特定手段と、エリア判定手段と、アプリケーション起動手段と、情報収集手段とを備え、前記移動する利用者が注目している対象物を特定し、前記対象物内に配置された複数のマーカにより囲まれるエリアを判定し、前記エリアに関するアプリケーションを起動する情報処理方法において、前記対象物情報及びアプリケーション情報収集手段が、前記利用者の移動に伴って変化する移動距離が所定距離以上である場合に、前記利用者の現在の存在位置を基点とした所定範囲を定める情報を含む取得要求を、ネットワークを介して、対象物情報及びアプリケーション情報を管理するサーバへ送信し、前記サーバから、前記取得要求における所定範囲内に設置された対象物についての対象物情報、及び前記対象物内のエリアに対応付けられたアプリケーション情報を受信し、前記対象物情報記憶手段及びアプリケーション情報記憶手段にそれぞれ格納する第1のステップと、前記対象物特定手段が、前記対象物情報記憶手段に格納された対象物の位置情報を読み出し、前記利用者の現在の存在位置を基点とした前記利用者が向いている方向の所定範囲内に、前記読み出した対象物の位置情報が示す存在位置が含まれる場合に、前記対象物を、前記利用者が注目している対象物として特定する第2のステップと、前記エリア判定手段が、前記利用者が向いている前方が撮影された視野映像から、前記対象物特定手段により特定された対象物に配置されたマーカを識別し、前記識別したマーカの位置情報を前記対象物情報記憶手段から読み出し、前記利用者が見ている視点位置と、前記読み出したマーカの位置情報が示すマーカ位置とにより、前記視点位置を囲む複数のマーカを特定し、前記対象物情報記憶手段に格納されたマーカとエリアとの関係情報を読み出し、前記複数のマーカが囲むエリアを特定し、前記特定したエリアに前記利用者の視点位置が所定時間以上滞留している場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する第3のステップと、前記アプリケーション起動手段が、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアへの視点滞留時間に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する第4のステップと、前記情報収集手段が、前記アプリケーション起動手段によるアプリケーションの起動に伴って、前記利用者の入力操作を、前記利用者が注目していた対象物内のエリアに対する行動情報として収集する第5のステップと、を有することを特徴とする。 According to a fifth aspect of the present invention, there is provided an apparatus carried by a moving user, the position information indicating the position of the target object, the position information indicating the position of the marker arranged in the target object, and a plurality of Object information storage means for storing object information including relation information indicating the relationship between the area surrounded by the marker and the marker; application information for activating an area in the object and an application relating to the area; Application information storage means that associates and stores object information and application information collection means, object identification means, area determination means, application activation means, and information collection means, and the moving user Is identified, and an area surrounded by a plurality of markers arranged in the object is determined, and the error is determined. In the information processing method for activating an application related to a), the object information and application information collecting means, when the moving distance that changes with the movement of the user is a predetermined distance or more, the current presence of the user An acquisition request including information defining a predetermined range based on the position is transmitted to a server that manages object information and application information via the network, and is installed within the predetermined range in the acquisition request from the server. A first step of receiving object information about the object and application information associated with an area in the object, and storing the information in the object information storage unit and the application information storage unit; and The specifying means reads out the position information of the object stored in the object information storage means, When the existence position indicated by the position information of the read object is included in a predetermined range in the direction in which the user is facing based on the current existence position of the user, the object is A second step of specifying as an object that the user is paying attention to, and an object specified by the object specifying means from a field-of-view image in which the area determination means is taken in front of the user. A marker placed on an object is identified, position information of the identified marker is read from the object information storage means, a viewpoint position viewed by the user, and a marker position indicated by the position information of the read marker By specifying a plurality of markers surrounding the viewpoint position, reading the relationship information between the marker and the area stored in the object information storage means, specifying the area surrounded by the plurality of markers, A third step of determining the identified area as an area within the object that the user is paying attention to when the user's viewpoint position remains in the identified area for a predetermined time or more; An application activation unit reads a plurality of pieces of application information associated with the area determined by the area determination unit from the application information storage unit, and according to a viewpoint staying time in the area, A fourth step of activating an application by identifying one of them, and the information collecting means pays attention to the user's input operation as the application is activated by the application activation means. And a fifth step of collecting as behavior information for the area within the target object And wherein the door.
また、請求項6の発明は、請求項5に記載の情報処理方法において、前記第3のステップが、前記エリア判定手段により、前記特定したエリアに前記利用者の視点位置が存在し、前記利用者の眼球の瞳孔径が所定長以上である場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する、ことを特徴とする。
Further, the invention according to
また、請求項7の発明は、請求項5または6に記載の情報処理方法において、前記第4のステップが、前記アプリケーション起動手段により、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアに視点が滞留したときの眼球の瞳孔径に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する、ことを特徴とする。
The invention according to claim 7 is the information processing method according to
また、請求項8の発明は、請求項5から7までのいずれか一項に記載の情報処理方法において、前記アプリケーション情報を、ウェブページを指定するURLとする、ことを特徴とする。
The invention according to claim 8 is the information processing method according to any one of
また、請求項9の発明は、請求項5から8までのいずれか一項に記載の情報処理方法をコンピュータに実行させることを特徴とする情報処理プログラムにある。 A ninth aspect of the present invention is an information processing program that causes a computer to execute the information processing method according to any one of the fifth to eighth aspects.
以上のように、本発明によれば、移動する利用者が注目している対象物を特定し、対象物内のエリアを判定し、エリアに関するアプリケーションを提示して利用者の行動に関する情報を収集することにより客観的な結果を得るようにした。これにより、移動する利用者に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。 As described above, according to the present invention, a target object that a moving user is interested in is identified, an area in the target object is determined, and an application related to the area is presented to collect information related to user behavior. It was to obtain an objective result by. Thereby, objective behavior analysis can be performed for a moving user. Therefore, since objective means are used instead of subjective means such as a questionnaire, it is possible to realize high accuracy of behavior factor analysis.
以下、本発明を実施するための最良の形態について、図面を参照して説明する。
〔システムの概略〕
まず、本発明の実施形態が適用される全体システムの概略について説明する。図1は、全体システムの概略図である。このシステムは、対象物1内の特定のエリアに興味を示す利用者2について、その行動を分析することを目的とするものである。具体的には、このシステムは、複数の対象物のうち、利用者2が注目している対象物1を特定し、その対象物1内において、利用者2が興味を示しているエリアを判定し、そのエリアに関する情報を利用者2へ提示し、その情報に基づいた利用者2のコンバージョン(行動)の情報(コンバージョン情報)を収集して分析する。
The best mode for carrying out the present invention will be described below with reference to the drawings.
[Outline of the system]
First, an outline of an entire system to which an embodiment of the present invention is applied will be described. FIG. 1 is a schematic diagram of the entire system. This system is intended to analyze the behavior of a
対象物1は、例えば、POP(Point Of Purchase)、看板、ポスター、陳列棚であり、利用者2が興味を示しているエリアを特定するためのマーカが設けられている。エリア及びマーカの詳細については後述する。利用者2は、めがね3をかけており、計測装置4及び移動体端末5を携帯している。めがね3には、利用者2が向いている前方にある対象物1を撮影するための視野映像用カメラ8、及び利用者2の眼球を撮影するための眼球画像用カメラ9が設けられている。利用者2が対象物1を見たときに、視野映像用カメラ8により撮影される映像と、利用者2の視野に写る映像とが一致するように、めがね3における視野映像用カメラ8の位置等が予め調整されている。また、眼球画像用カメラ9も、利用者2の眼球が正しく撮影され、計測装置4によって眼球画像から視線等を解析できるように、予め調整されている。視野映像用カメラ8及び眼球画像用カメラ9により撮影されたデータは、ケーブルを介してまたは無線により計測装置4へ送信される。
The
計測装置4及び移動体端末5によって、行動分析端末装置が構成される。以下、計測装置4と移動体端末5とは別々の装置として説明するが、行動分析端末装置として一体的な一つの装置であってもよい。
The measuring
計測装置4は、例えばベルトに装着され、利用者2により注目された対象物1の情報、利用者2の位置情報(緯度及び経度)及び方向、視点の滞留時間等の各種データを順次格納する。計測装置4と移動体端末5との間で、トルカ(登録商標)、人体通信、Bluetooth等によりデータが送受信される。尚、計測装置4が各種データをSD(Secure Digital)カードに格納し、利用者2がそのSDカードを計測装置4から取り外して移動体端末5に取り付けることにより、データを受け渡すようにしてもよい。
The measuring
移動体端末5は、例えば、携帯電話、携帯端末、PDA(Personal Digital Assistant)であり、アプリケーションを自動起動したり、利用者2の意思または選択によってアプリケーションを起動したり、移動体端末5を計測装置4に近づけることによってアプリケーションを起動したりする機能、電子メールを送受信する機能、ウェブページを表示する機能等を実現する。移動体端末5とサービスセンター6との間で、無線通信によりデータが送受信される。
The
サービスセンター6は、利用者2により注目された対象物1の情報及び視点の滞留時間等の情報(行動結果)、提示した情報に基づいた利用者2のコンバージョン情報を収集し、利用者2の行動を分析する。また、サービスセンター6は、分析結果を、利用者2が携帯する移動体端末5へ送信したり、マーケティング情報として事業者へ提示したりする。
The
〔システムの構成〕
図2は、図1に示した全体システムの構成を示すブロック図である。まず、計測装置4について説明する。計測装置4は、眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43を備えている。
[System configuration]
FIG. 2 is a block diagram showing a configuration of the entire system shown in FIG. First, the measuring
眼球運動解析部41は、めがね3に設けられた視野映像用カメラ8から視野映像を入力すると共に、眼球画像用カメラ9から眼球画像を入力する。そして、眼球運動解析部41は、視野映像及び眼球画像を解析し、眼球運動である視点及び瞳孔径、並びに視点と対応付けた視野映像を行動分析・アプリケーション制御部43に出力する。
The eye
位置方向解析部42は、計測装置4に設けられたアンテナ(図1には図示せず)からGPS(Global Positioning System)データを入力すると共に、計測装置4に設けられた加速度センサ(図1には図示せず)から加速度センサデータを入力する。そして、位置方向解析部42は、GPSデータ及び加速度センサデータを解析し、利用者2の位置情報(緯度及び経度)及び方向を行動分析・アプリケーション制御部43に出力する。
The position /
行動分析・アプリケーション制御部43は、対象物1に関する情報(対象物情報)を取得するための要求(対象物情報取得要求)を移動体端末5へ送信する。そして、行動分析・アプリケーション制御部43は、移動体端末5から対象物情報を受信し、記憶媒体に格納する。
The behavior analysis /
また、行動分析・アプリケーション制御部43は、眼球運動解析部41から利用者2の視点及び瞳孔径並びに視野映像を入力すると共に、位置方向解析部42から利用者2の位置情報(緯度及び経度)及び方向を入力する。そして、行動分析・アプリケーション制御部43は、入力したこれらの解析データを時系列に記憶媒体に格納する。また、行動分析・アプリケーション制御部43は、利用者2が注目している対象物1を特定し、対象物1について、利用者2が興味を示しているエリアである視線一致エリアを判定すると共に、視線一致エリアの興味関心度合いを算出し、これらの行動結果を記憶媒体に格納すると共に移動体端末5へ送信する。
In addition, the behavior analysis /
次に、移動体端末5について説明する。移動体端末5は、機能制御部51を備えている。機能制御部51は、計測装置4から対象物情報取得要求を受信し、取得対象の対象物情報に加えてアプリケーション情報も取得するために、対象物情報及びアプリケーション情報取得要求をサービスセンター6のサーバ10へ送信する。また、機能制御部51は、サービスセンター6のサーバ10から対象物情報及びアプリケーション情報を受信し、アプリケーション情報を記録媒体に格納する。そして、機能制御部51は、対象物情報を計測装置4へ送信する。
Next, the
また、機能制御部51は、計測装置4から解析データ及び行動結果を受信し、解析データをサービスセンター6のサーバ10へ送信する。また、機能制御部51は、受信した行動結果に対応するアプリケーションをアプリケーション情報から特定し、そのアプリケーションを起動する。
Further, the
利用者2は、起動したアプリケーションに伴い、移動体端末5の画面に表示された情報に基づいて行動したり、移動体端末5を操作したりする。機能制御部51は、このときの利用者2の行動、行為、動作等を移動体端末5の操作に反映したコンバージョン情報として収集し、行動結果及びコンバージョン情報をサービスセンター6のサーバ10へ送信する。
The
次に、サービスセンター6のサーバ10について説明する。サービスセンター6のサーバ10は、情報管理・分析部61を備えている。情報管理・分析部61は、移動体端末5から対象物情報及びアプリケーション情報取得要求を受信し、この要求に対応する対象物情報及びアプリケーション情報を移動体端末5へ送信する。
Next, the server 10 of the
また、情報管理・分析部61は、移動体端末5の機能制御部51から解析データ、行動結果及びコンバージョン情報を受信し、利用者2の行動を分析し、利用者2及び事業者にとって有用な情報を生成して提示する。また、情報管理・分析部61は、計測装置4及び移動体端末5の処理において必要な各種パラメータを変更する。
The information management / analysis unit 61 receives analysis data, behavior results, and conversion information from the
〔システムの機能〕
次に、図1及び図2に示したシステムの機能フローについて説明する。図3は、全体の処理を説明する機能フローであり、システムが行う主な処理を時系列に示したものである。まず、計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報(緯度及び経度)に応じて必要となる対象物情報を、移動体端末5を介してサービスセンター6の情報管理・分析部61から取得し、記憶媒体に格納する(ステップS301)。また、移動体端末5の機能制御部51は、利用者2の位置情報(緯度及び経度)に応じて必要となるアプリケーション情報を、計測装置4の行動分析・アプリケーション制御部43からの要求に従って、サービスセンター6の情報管理・分析部61から取得し、記憶媒体に格納する(ステップS301)。
[System functions]
Next, the functional flow of the system shown in FIGS. 1 and 2 will be described. FIG. 3 is a functional flow for explaining the overall processing, and shows the main processing performed by the system in time series. First, the behavior analysis /
具体的には、計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報(緯度及び経度)を中心として、所定範囲内に設けられた全ての対象物1について、これらの対象物情報を常に記憶媒体に格納しておく。これは、利用者2の移動に伴い、利用者2が注目するであろう対象物1が、利用者2の位置情報(緯度及び経度)に基づいて前もって推定できるからである。つまり、計測装置4は、対象物1を特定する前に、対象物1の対象物情報を取得する。
Specifically, the behavior analysis /
計測装置4の行動分析・アプリケーション制御部43は、利用者2が注目している対象物1を特定する(ステップS302)。具体的には、計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報(緯度及び経度)及び方向と、対象物1の位置情報(対象物情報に含まれる位置情報)とに基づいて、利用者2と対象物1との位置関係を算出し、利用者2の方向によって、利用者2が見ているであろう対象物1を、利用者2が注目している対象物1として特定する。
The behavior analysis /
計測装置4の行動分析・アプリケーション制御部43は、利用者2が注目している対象物1について、利用者2が興味を示しているエリアを視線一致エリアとして判定する(ステップS303)。対象物1には、前述したように、対象物1を区分けしたエリアを判定するためのマーカが設けられている。計測装置4の行動分析・アプリケーション制御部43は、視野映像内のマーカを識別し、そのマーカによって、視点が滞留している視線一致エリアを判定する。詳細については後述する。
The behavior analysis /
計測装置4の行動分析・アプリケーション制御部43は、行動結果のデータを生成し、記憶媒体に格納する(ステップS304)。具体的には、計測装置4の行動分析・アプリケーション制御部43は、例えば、視線一致エリアにおける視点滞留時間を算出し、これを興味関心度合いのデータとして、視線一致エリア及び興味関心度合いを含む行動結果のデータを生成する。
The behavior analysis /
移動体端末5の機能制御部51は、計測装置4の行動分析・アプリケーション制御部43から行動結果を受信し、行動結果に含まれる視線一致エリアに対応付けられたアプリケーションをアプリケーション情報から特定し、特定したアプリケーションを起動する(ステップS305)。
The
移動体端末5の機能制御部51は、起動したアプリケーションに伴い、利用者2が移動体端末5の画面に表示された情報に基づいて行動したり、移動体端末5を操作したりする情報を収集する。そして、このときの利用者2の行動、行為、動作等を反映した移動体端末5の操作をコンバージョン情報として、行動結果及びコンバージョン情報をサービスセンター6のサーバ10へ送信する(ステップS306)。
The
サービスセンター6の情報管理・分析部61は、移動体端末5の機能制御部51から行動結果及びコンバージョン情報を受信し、利用者2の行動を分析し、利用者2または事業者にとって有用な情報を生成して提示する(ステップS307)。尚、機能フローにはないが、計測装置4の行動分析・アプリケーション制御部43により生成された解析データ(時刻、視点位置、瞳孔径、利用者位置情報及び利用者方向)も、計測装置4から移動体端末5を介してサービスセンター6のサーバ10へ送信される。
The information management / analysis unit 61 of the
〔計測装置〕
次に、図1及び図2に示した計測装置4について詳細に説明する。図4は、計測装置4の構成を示すブロック図である。計測装置4は、前述のように、眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43を備えている。また、眼球運動解析部41は、視点・瞳孔径解析部411及び視野映像解析部412を備え、位置方向解析部42は、緯度経度解析部421及び方向解析部422を備えている。また、行動分析・アプリケーション制御部43は、アプリケーション管理制御部431、記憶媒体432、データ同期管理制御部433、画像解析・エリア興味分析部434、データ転送管理制御部435及び機能間通信部436を備えている。
[Measurement equipment]
Next, the measuring
眼球運動解析部41の視点・瞳孔径解析部411は、めがね3の眼球画像用カメラ9から利用者2の眼球画像を入力し、眼球画像を解析することにより、後述する視野映像を平面としたときの視点(視野映像における視点の位置座標)及び瞳孔径を算出し、視点及び瞳孔径を行動分析・アプリケーション制御部43の画像解析・エリア興味分析部434に出力する。尚、眼球画像の解析手法についは既知であり、例えば、前述した特許文献1,2及び非特許文献1に記載されているから、ここでは説明を省略する。
The viewpoint / pupil
視野映像解析部412は、めがね3の視野映像用カメラ8から利用者2の視野映像を入力し、例えば1/30秒毎に入力する視野映像と、視点・瞳孔径解析部411において算出される視点及び瞳孔径との時間的な対応付けを行い、視点・瞳孔径解析部411により出力される視点及び瞳孔径に時間的に対応した視野映像を行動分析・アプリケーション制御部43の画像解析・エリア興味分析部434に出力する。したがって、視点・瞳孔径解析部411により出力される視点及び瞳孔径と、視野映像解析部412により出力される視野映像とは、同期したデータとなる。
The visual field
位置方向解析部42の緯度経度解析部421は、アンテナからGPSデータを入力し、GPSデータを解析することにより利用者2の位置情報(緯度及び経度)を生成し、その位置情報(緯度及び経度)を行動分析・アプリケーション制御部43のデータ同期管理制御部433に出力する。GPSデータは、GPS衛星との間の通信によって得られるデータである。
The latitude /
方向解析部422は、加速度センサから加速度センサデータを入力し、加速度センサデータを解析することにより利用者2の向き(方向)のデータを生成し、その方向を行動分析・アプリケーション制御部43のデータ同期管理制御部433に出力する。具体的には、方向解析部422は、加速度センサにより計測されたx,y,z方向の加速度センサデータを解析し、利用者2の向いている方向のデータを生成する。尚、利用者2の方向のデータを生成する手法の詳細については、例えば、特開2006−320566号公報を参照されたい。
The
行動分析・アプリケーション制御部43のアプリケーション管理制御部431は、記憶媒体432、データ同期管理制御部433、画像解析・エリア興味分析部434及びデータ転送管理制御部435の処理を統括的に制御して管理する。例えば、アプリケーション管理制御部431は、行動分析・アプリケーション処理の開始及び終了を各部に出力したり、各部の処理が同期して動作するように、同期信号を出力したりする。
The application
データ同期管理制御部433は、位置方向解析部42の緯度経度解析部421から利用者2の位置情報(緯度及び経度)を入力すると共に、方向解析部422から利用者2の方向を入力し、位置情報(緯度及び経度)及び方向を同期させ、同期した位置情報(緯度及び経度)及び方向を画像解析・エリア興味分析部434及びデータ転送管理制御部435に出力する。尚、画像解析・エリア興味分析部434及びデータ転送管理制御部435からの要求に従って、同期した位置情報(緯度及び経度)及び方向を出力するようにしてもよい。
The data synchronization
データ転送管理制御部435は、データ同期管理制御部433から同期した位置情報(緯度及び経度)及び方向を入力し、記憶媒体432が利用者2の位置情報(緯度及び経度)を中心として所定範囲内の全ての対象物1の対象物情報を常に記憶しているようにするため、取得対象の範囲を示す位置情報を含む対象物情報取得要求を、機能間通信部436を介して移動体端末5へ送信する。具体的には、データ転送管理制御部435は、利用者2の移動に伴って、既に入力した最新の位置情報(緯度及び経度)と新たに入力した位置情報(緯度及び経度)とを比較し、移動距離が所定距離以上である場合に、対象物情報取得要求を送信する。データ転送管理制御部435は、移動体端末5から機能間通信部436を介して、取得対象の範囲内に設置された全ての対象物1の対象物情報を受信し、その対象物情報を記憶媒体432に格納する。
The data transfer
例えば、データ転送管理制御部435は、利用者2の位置情報(緯度及び経度)及びそれを中心とした所定範囲の位置情報を取得対象の範囲の位置情報として、対象物取得要求を送信するようにしてもよい。この場合、データ転送管理制御部435は、移動体端末5から対象物情報を受信すると、記憶媒体432に既に格納されている対象物情報を削除し、受信した対象物情報を新たに格納する。
For example, the data transfer
また、データ転送管理制御部435は、利用者2の移動に伴って、利用者2の位置情報(緯度及び経度)を中心とした所定範囲が変動した場合、その変動した範囲(新たな範囲)のみを取得対象の範囲として、対象物取得要求を送信するようにしてもよい。この場合、データ転送管理制御部435は、移動体端末5から対象物情報を受信すると、記憶媒体432に格納されている対象物情報のうち所定範囲外となった対象物情報を削除し、受信した新たな範囲内の対象物情報を記憶媒体432に格納する。これにより、記憶媒体432には、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内の対象物情報が格納されていることになる。データ転送管理制御部435は、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内の全ての対象物情報を受信する必要がなく、移動に伴う新たな範囲内の対象物情報のみを受信すればよいから、通信量を抑えることができ、効率の良い処理を実現することができる。
In addition, when the predetermined range centering on the location information (latitude and longitude) of the
図9は、対象物情報の構成を示す図である。図9に示すように、対象物情報は、対象物ID、対象物の位置情報(緯度及び経度)、対象物の種類(例えば、POP、看板、ポスター、陳列棚)、マーカの形式(例えば、LED、QRコード、市松模様)、マーカの位置情報(対象物を正面から見たときの位置座標)、エリアとマーカとの関係を示す情報(関係情報)から構成される。これらの構成データは、対象物毎に存在する。ここで、マーカの位置情報は、例えば、利用者2が対象物を見たときの平面において、マーカが存在する座標を示す。また、エリアは、例えば4つのマーカにより囲まれる領域である場合、エリアとマーカとの関係情報は、1つのエリアと4つのマーカとの関係を示す情報となる。尚、エリア及びマーカには予め番号が付されている。これらのデータは、データ転送管理制御部435によって記憶媒体432に格納され、画像解析・エリア興味分析部434によって記憶媒体432から読み出される。
FIG. 9 is a diagram illustrating a configuration of the object information. As shown in FIG. 9, the object information includes an object ID, object position information (latitude and longitude), object type (for example, POP, signboard, poster, display shelf), marker format (for example, LED, QR code, checkerboard pattern), marker position information (position coordinates when the object is viewed from the front), and information indicating the relationship between the area and the marker (relation information). Such configuration data exists for each object. Here, the marker position information indicates, for example, the coordinates at which the marker exists on the plane when the
画像解析・エリア興味分析部434は、眼球運動解析部41から視点、瞳孔径及び視野映像を入力すると共に、データ同期管理制御部433から同期した位置情報(緯度及び経度)及び方向を入力し、これらのデータを時刻データと共に解析データとして記憶媒体432に格納する。
The image analysis / area
図11は、解析データの構成を示す図である。図11に示すように、解析データは、時刻、視点位置、瞳孔径、利用者2の位置情報(緯度及び経度)及び利用者2の方向のデータから構成される。前述したように、これらのデータは、画像解析・エリア興味分析部434によって記憶媒体432に格納され、データ転送管理制御部435によって記憶媒体432から読み出される。尚、視野映像は解析データに含まれるが、説明の便宜上省略してある。
FIG. 11 is a diagram showing a configuration of analysis data. As shown in FIG. 11, the analysis data includes time, viewpoint position, pupil diameter,
画像解析・エリア興味分析部434は、記憶媒体432から対象物情報を読み出し、利用者2の位置情報(緯度及び経度)及び方向と、対象物情報に含まれる対象物1の位置情報(緯度及び経度)とに基づいて、利用者2と対象物1との位置関係を算出し、利用者2が注目している対象物1を特定する。具体的には、画像解析・エリア興味分析部434は、利用者2の位置情報(緯度及び経度)及び方向から、利用者2が存在する位置を中心として利用者2が見ている向きの所定距離内の領域を設定し、その範囲内にある対象物1を、対象物1の位置情報(緯度及び経度)から特定する。その範囲内にある対象物1が複数存在する場合は、最も近い対象物1を特定する。
The image analysis / area
そして、画像解析・エリア興味分析部434は、特定した対象物1において、利用者2が興味を示しているエリア(視線一致エリア)を、視野映像に含まれるマーカを識別することにより、また、特定した対象物1の対象物情報、利用者2の興味関心度合い等により判定する。以下、詳細に説明する。
Then, the image analysis / area
図7は、対象物1、視野映像、視線一致場所及びマーカを説明する図である。図7に示すように、対象物1には複数のマーカ(図7において丸印の形態)が所定箇所に埋め込まれ、または貼り付けられており、そのマーカはそれぞれ固有の識別情報を有している。例えば、マーカがQRコードの場合、マーカにはそれぞれ0,1,2,3,・・・を示す情報が含まれている。マーカは、高輝度の赤外光LEDまたは蛍光体等からなり、LEDを並べて数字として表したものであってもよいし、市松模様のパターンであってもよい。
FIG. 7 is a diagram for explaining the
図7に示すように、利用者2が対象物1に注目し、めがね3に設けられた視野映像用カメラ8により視野映像が撮影されているものとする。この場合、視野映像には、対象物1に埋め込まれたマーカ(図7では4つのマーカ)が含まれ、利用者2の視点は、視野映像内に存在する。
As shown in FIG. 7, it is assumed that the
図8は、視線一致エリアを判定する処理を説明する図である。図7と同様に、利用者2が対象物1に着目し、めがね3に設けられた視野映像用カメラ8により、4つのマーカM3,1、M3,2、M4,1及びM4,2を含む視野映像が撮影されているものとする。ここで、M3,1等はマーカの番号を示す。
FIG. 8 is a diagram illustrating processing for determining a line-of-sight matching area. As in FIG. 7, the
画像解析・エリア興味分析部434は、対象物情報に含まれるマーカの形式に従ったマーカの識別処理を行い、眼球運動解析部41から入力した視野映像に含まれるマーカを識別する。図8の例では、4つのマーカM3,1、M3,2、M4,1、M4,2が識別される。そして、画像解析・エリア興味分析部434は、識別したマーカの位置情報を、特定した対象物1の対象物情報から取り出し、眼球運動解析部41から入力した視点の位置情報と、識別したマーカの位置情報とに基づいて、視点を囲む4つのマーカを特定する。
The image analysis / area
例えば、図9に示した対象物情報に含まれるマーカの位置情報が、(M3,1:x3,y1)(M3,2:x3,y2)等の情報であるとする。ここで、M3,1等はマーカの番号を示し、(x3,y1)等は対象物1におけるマーカの平面座標を示す。この場合、図8に示すように、画像解析・エリア興味分析部434は、識別したマーカM3,1の位置情報(x3,y1)等を対象物情報から取り出し、取り出したマーカの位置情報と視点の位置情報とに基づいて、視点を囲むマーカM3,1、M3,2、M4,1、M4,2を特定する。
For example, the marker position information included in the object information shown in FIG. 9 is information such as (M3, 1: x3, y1) (M3, 2: x3, y2). Here, M3, 1 and the like indicate the marker number, and (x3, y1) and the like indicate the planar coordinates of the marker in the
そして、画像解析・エリア興味分析部434は、特定した対象物1の対象物情報に含まれるエリアとマーカの関係情報から、特定したマーカに囲まれるエリアを特定する。図8の例では、マーカM3,1、M3,2、M4,1及びM4,2に囲まれるエリアA3,1が特定される。
Then, the image analysis / area
そして、画像解析・エリア興味分析部434は、特定したエリアに利用者2の視点が所定時間以上滞留していると判定した場合に、利用者2がそのエリアに興味を示したと判定し、そのエリアを視線一致エリアと判定する。この場合、画像解析・エリア興味分析部434は、視点滞留時間による判定に代えて、特定したエリアに対して、所定長以上の瞳孔径が所定時間以上継続していると判定した場合に、利用者2がそのエリアに興味を示したと判定し、そのエリアを視線一致エリアと判定するようにしてもよい。
When the image analysis / area
画像解析・エリア興味分析部434は、どのエリアにどれだけの時間、視点が滞留していたかを算出する。つまり、画像解析・エリア興味分析部434は、同じエリアに視点が滞留している限り、その時間をカウントし、そのエリアにおける滞留時間を算出する。視点の滞留時間が長いほど、その視線一致エリアに対する興味関心度合いが高くなる。画像解析・エリア興味分析部434は、対象物1を識別するための対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻及び視線一致エリアであるか否かの判定結果からなる行動結果を生成し、その行動結果を記憶媒体432に格納する。
The image analysis / area
図12は、行動結果の構成を示す図である。図12に示すように、行動結果は、対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻及び視線一致エリアであるか否かの判定結果から構成される。これらのデータは、画像解析・エリア興味分析部434によって記憶媒体432に格納され、データ転送管理制御部435によって記憶媒体432から読み出される。尚、画像解析・エリア興味分析部434は、視点の滞留時間に代えて、瞳孔径の平均値を格納するようにしてもよい。この場合、瞳孔径の平均値が大きいほど、その視線一致エリアに対する興味関心度合いが高くなる。
FIG. 12 is a diagram illustrating a configuration of an action result. As shown in FIG. 12, the action result is composed of the object ID, the area, the staying time of the viewpoint in the area, the staying start time, the staying end time, and the determination result as to whether or not the line-of-sight matching area. These data are stored in the
画像解析・エリア興味分析部434は、視線一致エリアを判定し、視点が視線一致エリアから外れたときに、利用者2が興味を示したときの行動結果(対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻、視線一致エリアである旨)を送信するようにアプリケーション管理制御部431を介してデータ転送管理制御部435に指示する。そして、データ転送管理制御部435は、利用者2が興味を示したときの行動結果を、機能間通信部436を介して移動体端末5へ送信する。また、データ転送管理制御部435は、所定の周期にて記憶媒体432から解析データ及び行動結果を読み出し、機能間通信部436を介して移動体端末5へ送信する。
The image analysis / area
〔移動体端末〕
次に、図1及び図2に示した移動体端末5について詳細に説明する。図5は、移動体端末5の構成を示すブロック図である。移動体端末5は、前述のように、機能制御部51を備えている。また、機能制御部51は、図5に示すように、中央制御部511、記憶媒体512、機能間通信部513及び移動体通信部514を備えている。
[Mobile terminal]
Next, the
中央制御部511は、計測装置4から機能間通信部513を介して、取得対象の範囲を示す位置情報を含む対象物情報取得要求を受信し、取得対象の範囲の対象物情報に加えてアプリケーション情報も取得するために、対象物情報及びアプリケーション情報取得要求を、移動体通信部514を介してサービスセンター6へ送信する。そして、中央制御部511は、サービスセンター6から移動体通信部514を介して、取得対象の範囲の対象物情報及びアプリケーション情報を受信し、アプリケーション情報を記憶媒体512に格納する。
The
図10は、アプリケーション情報の構成を示す図である。図10に示すように、アプリケーション情報は、対象物ID、エリア番号、エリアに対応付けられるアプリケーション及びアプリケーションの起動方法から構成されている。記憶媒体512に格納されるアプリケーション情報は、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内に設置された全ての対象物1における対象物1内のエリアについて、そのエリアに対応付けられたアプリケーション等の情報である。エリアに対応付けられているアプリケーションは、例えば、指定URLのウェブページの閲覧、指定アドレスへの電子メールの送信、アプリケーションの指定である。また、アプリケーションの起動方法には、例えば、即起動、興味関心度合いに応じた起動、移動体端末5を計測装置4に近づけたときに起動、がある。移動体端末5を計測装置4に近づけたときに起動するとは、計測装置4を近づけたときに反応するセンサが移動体端末5に設けられており、移動体端末5と計測装置4との間の距離が所定距離以上のときにはそのセンサは反応せず、移動体端末5と計測装置4との間の距離が所定距離よりも短いときにそのセンサが反応し、アプリケーションが起動することをいう。
FIG. 10 is a diagram illustrating a configuration of application information. As illustrated in FIG. 10, the application information includes an object ID, an area number, an application associated with the area, and an application activation method. The application information stored in the
尚、複数のエリア番号に同一のアプリケーションを割り付けるようにしてもよいし、1つのエリア番号に複数のアプリケーションを割り付けるようにしてもよい。また、興味関心度合い(例えば、視点滞留時間、瞳孔径)に応じたアプリケーションを割り付けておき、例えば、所定の設定値以上の興味関心度合いのときに、第1のアプリケーション(例えば、利用者2が興味を示していたエリアに表示されていた商品について、その商品購入用画面を表示するアプリケーション)が起動し、所定の設定値未満の興味関心度合いのときに、第2のアプリケーション(例えば、利用者2が興味を示していたエリアに表示されていた商品について、その商品の詳細な説明用画面を表示するアプリケーション)が起動するように割り付けてもよい。また、利用者2の位置情報(緯度及び経度)、利用者2の方向、時刻等のそれぞれの条件に応じたアプリケーションが起動するように、アプリケーション及びその起動方法を割り付けるようにしてもよい。
The same application may be assigned to a plurality of area numbers, or a plurality of applications may be assigned to one area number. In addition, an application corresponding to the degree of interest (for example, viewpoint dwell time, pupil diameter) is allocated, and for example, when the degree of interest is greater than a predetermined set value, the first application (for example, the user 2 A second application (for example, a user) is activated when an application that displays a product purchase screen for a product displayed in an area that has shown interest and the degree of interest is less than a predetermined set value. For the product displayed in the area where 2 has shown interest, an application for displaying a detailed explanation screen of the product may be assigned to be activated. Moreover, you may make it allocate an application and its starting method so that the application according to each conditions, such as the positional information (latitude and longitude) of the
また、中央制御部511は、計測装置4から機能間通信部513を介して、解析データ及び行動結果を受信し、これらのデータを、移動体通信部514を介してサービスセンター6へ送信する。
Further, the
また、中央制御部511は、計測装置4から機能間通信部513を介して、利用者2が興味を示したときの行動結果(対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻、視線一致エリアである旨)を受信する。そして、中央制御部511は、記憶媒体512からアプリケーション情報を読み出し、受信した行動結果に含まれる対象物ID及びエリア(エリア番号)をキーとして、アプリケーション情報に含まれる、エリアに対応付けられるアプリケーション及びアプリケーションの起動方法を取り出す。
In addition, the
中央制御部511は、視線一致エリアに対応付けられているアプリケーションを、その起動方法で起動する。利用者2は、アプリケーションの起動に伴い、移動体端末5の画面に表示された情報を見て次の行動等を判断する。中央制御部511は、そのときの利用者2による行動、行為、動作を、移動体端末5への操作入力を介して、時刻データを含むコンバージョン情報として収集する。そして、中央制御部511は、行動結果、起動したアプリケーション(起動しなかった場合も含む)、起動方法及びコンバージョン情報を、移動体通信部514を介してサービスセンター6へ送信する。
The
〔サービスセンター〕
次に、図2に示したサービスセンター6のサーバ10について詳細に説明する。図6は、サーバ10の構成を示すブロック図である。サーバ10は、情報管理・分析部61を備えており、情報管理・分析部61は、移動体通信部62、対象物情報管理部63、情報分析部64及びパラメータ設定部65を備えている。
[Service Center]
Next, the server 10 of the
対象物情報管理部63は、管理部631、設定部632及び記憶媒体633を備えている。設定部632は、図9に示した対象物情報及び図10に示したアプリケーション情報を構成する各データを設定し、これらの情報を記憶媒体633に格納する。また、設定部632は、記憶媒体633から対象物情報及びアプリケーション情報を読み出し、これらの情報を構成する各データを修正し、記憶媒体633に格納する。つまり、記憶媒体633には、位置情報(緯度及び経度)に対応した対象物情報(図9を参照)及びアプリケーション情報(図10を参照)が格納されている。
The object
管理部631は、移動体端末5から移動体通信部62を介して、取得対象の範囲を示す位置情報を含む対象物情報及びアプリケーション情報取得要求を受信する。管理部631は、対象物情報及びアプリケーション情報取得要求に含まれる取得対象の範囲を示す位置情報をキーにして記憶媒体633を検索し、その取得対象の範囲の対象物情報及びアプリケーション情報を読み出し、移動体通信部62を介して移動体端末5へ送信する。これにより、計測装置4は、利用者2の移動に伴い、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内に設けられた対象物1の対象物情報を取得し、記憶媒体432に格納することができる。また、移動体端末5も同様に、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内に設けられた対象物1のアプリケーション情報を取得し、記憶媒体512に格納することができる。
The
情報分析部64は、情報収集部641、対象物効果測定部642、行動分析部643、お薦め情報生成部644及び記憶媒体645を備えている。情報収集部641は、移動体端末5から移動体通信部62を介して、解析データ、行動結果、利用者2が興味を示したときの行動結果、起動したアプリケーション、起動方法及びコンバージョン情報等を受信し、記憶媒体645に格納する。
The
対象物効果測定部642は、利用者2が興味を示したときの行動結果等を用いることにより、対象物1が利用者2の行動に影響を及ぼしているか否かを数値化する。すなわち、対象物効果測定部642は、記憶媒体645から利用者2が興味を示したときの行動結果等のデータを読み出し、利用者2が注目した対象物において興味を示した視線一致エリア毎に、対象物効果測定結果を算出及び整理し、記憶媒体645に格納する。具体的には、対象物効果測定部642は、利用者2が興味を示したときの行動結果に含まれる視点滞留時間と、その時間において解析データに含まれる瞳孔径とを、視点の滞留開始時刻から滞留終了時刻までの間で積分処理を行い、その積分値である興味度を算出する。また、対象物効果測定部642は、最初に起動したアプリケーションの名称等を特定し、利用者2の行動、行為等を示すコンバージョン情報を特定する。起動したアプリケーションがない場合には、未起動のアプリケーションの名称等を特定する。コンバージョン情報には、例えば、アプリケーションの起動によって画面に表示された商品についての詳細な情報を取得するための操作、その商品の申し込み、購入決済等の操作がある。
The object
また、対象物効果測定部642は、利用者2が興味を示した視線一致エリアが判定されてからアプリケーションが起動するまでの間の時間(T1)を算出し、アプリケーションが起動してから所定の行為を行うまでの間の時間(T2)を算出する。T2の算出において、所定の行為とは、例えば、アプリケーションの起動によって画面に表示された商品を購入する操作をいう。対象物効果測定部642は、所定の行為がコンバージョン情報に含まれている場合は時間T2を算出し、含まれていない場合は時間T2を算出しない。前述の例では、商品を購入する操作を行わなかった場合は、時間T2は算出されない。
In addition, the object
また、対象物効果測定部642は、興味度、特定したアプリケーション及びコンバージョン情報、時間T1及び時間T2に基づいて、評価点(0〜100点)を算出する。例えば、興味度等のデータにそれぞれ重み付けをして、合計が100点以下になるように正規化する。これらのデータは、対象物効果測定結果として記憶媒体645に格納され、利用者2に通知するために移動体端末5へ送信され、また、有用なマーケティング情報として事業者へ提供される。
The object
図13は、対象物効果測定結果の構成を示す図である。図13に示すように、対象物効果測定結果は、利用者2毎のデータであり、対象物、エリア、興味度、アプリケーション、コンバージョン情報、時間T1、時間T2及び評価点から構成される。前述したように、これらのデータは、対象物効果測定部642によって記憶媒体645に格納される。
FIG. 13 is a diagram illustrating a configuration of the object effect measurement result. As shown in FIG. 13, the object effect measurement result is data for each
このように、対象物効果測定部642が、利用者2の行動結果を対象物1毎に数値化することにより、利用者2の行動に対する対象物1の有用性を分析することができる。
Thus, the object
行動分析部643は、利用者2である消費者の行動を分析するために、利用者2毎に、利用者2の行動結果を数値化する。すなわち、行動分析部643は、記憶媒体645から対象物効果測定結果を読み出し、利用者2毎に各対象物1に対する評価点を整理し、行動分析結果として記憶媒体645に格納する。
The behavior analysis unit 643 digitizes the behavior result of the
図14は、行動分析結果の構成を示す図である。図14に示すように、行動分析結果は、利用者2毎における各対象物1の評価点から構成される。例えば、利用者2である消費者1は、対象物aについて評価点が85、対象物bについての評価点が60であることが示されている。このような行動分析結果は、行動分析部643によって記憶媒体645に格納される。
FIG. 14 is a diagram illustrating a configuration of a behavior analysis result. As shown in FIG. 14, the behavior analysis result is composed of evaluation points of the
このように、行動分析部643が、図14に示した行動分析結果を生成することにより、利用者2である消費者及び消費者モニターについて、対象物1が示す商品の購買パターン及び消費行動パターンを分析することができる。また、第1の利用者2の行動分析結果を、その第1の利用者2のグループ(年齢、性別、性格等)に属する他の利用者2に用いることにより、例えば、同じアプリケーションを起動して同じ商品情報を提示することにより、他の利用者2は所望する商品情報を見ることができ、結果として商品の購買を促進することができる。
As described above, the behavior analysis unit 643 generates the behavior analysis result shown in FIG. 14, whereby the purchase pattern and the consumption behavior pattern of the product indicated by the
尚、前記実施形態では、商品に対する消費行動を分析する例を示したが、アミューズメントパーク等の娯楽性の強い施設においても適用することができる。 In addition, although the example which analyzes the consumption action with respect to goods was shown in the said embodiment, it can apply also in facilities with strong recreation property, such as an amusement park.
お薦め情報生成部644は、利用者2である消費者の行動分析結果を、お薦め情報として整理し、リアルタイムに利用者2に提示する。すなわち、お薦め情報生成部644は、記憶媒体645から対象物効果測定結果及び行動分析結果を読み出し、起動したアプリケーション及びコンバージョン情報から商品名及び店舗名を特定し、購買点を決定し、興味度及び総合点(評価点)を含めたお薦め情報を生成し、記憶媒体645に格納し、利用者2が携帯する移動体端末5へ送信する。商品名及び店舗名は、例えば、アプリケーションの起動によって画面に表示される複数のデータに含まれており、利用者2が操作によって選択されたものとする。購買点は、予め点数が付けられたコンバージョン情報から決定される。例えば、アプリケーションの起動によって画面に表示された商品についての詳細な情報を取得するための操作をした場合の点数、その商品の申し込みの操作をした場合の点数、購入決済等の操作をした場合の点数等が予め用意されており、お薦め情報生成部644は、実際のコンバージョン情報に対応した点数を購買点として決定する。また、興味度及び総合点(評価点)は、対象物効果測定結果から取り出される。
The recommended
図15は、お薦め情報の構成を示す図である。図15に示すように、お薦め情報は、利用者2毎、商品名及び店舗名における興味度、購買度及び総合点(評価点)により構成される。このようなお薦め情報は、お薦め情報生成部644によって記憶媒体645に格納される。
FIG. 15 is a diagram showing a configuration of recommendation information. As shown in FIG. 15, the recommended information is composed of the interest level, the purchase level, and the total score (evaluation score) for each
このように、お薦め情報生成部644が、利用者2に対するお薦め情報を生成し利用者2へ提示することにより、利用者2は、自らの興味に沿った商品及び店舗等について認識することができる。例えば、お薦め情報生成部644は、対象物1が設置されている対象地域の商店街及びショッピングセンター等に限定したお薦め情報を利用者2へ提示することができる。
As described above, the recommendation
パラメータ設定部65は、情動反応重み値設定部651、有意時間しきい値設定部652及び記憶媒体653を備えている。パラメータ設定部65は、計測装置4及び移動体端末5が動作するために必要な各種パラメータを設定し、移動体通信部62を介して送信する。ここで、パラメータ設定部65による各種パラメータの設定には、計測装置4及び移動体端末5に対し、所定の動作をさせるために必要なパラメータを設定することに加え、ある動作をしている計測装置4及び移動体端末5に対して新たな動作をさせるために、既に設定されてるパラメータを変更することも含まれる。設定した各種パラメータは、記憶媒体653に格納される。例えば、計測装置4における行動分析・アプリケーション制御部43のデータ転送管理制御部435は、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内の対象物情報を取得する。この場合、パラメータ設定部65は、その所定範囲を定める距離を設定して送信する。また、計測装置4における行動分析・アプリケーション制御部43の画像解析・エリア興味分析部434は、利用者2が興味を示した視線一致エリアを判定する際にその設定値を設定して送信する。このように、パラメータ設定部65は、計測装置4及び移動体端末5が動作するために必要な各種パラメータを設定し変更するようにしたから、サービスセンター6側から計測装置4及び移動体端末5を制御することができる。尚、情動反応重み値設定部651、有意時間しきい値設定部652及び記憶媒体653の詳細については、後述する図16及び図17を用いた本発明の他の実施形態が適用される全体システムにおいて説明する。
The parameter setting unit 65 includes an emotion reaction weight value setting unit 651, a significant time threshold
以上のように、本発明の実施形態によれば、計測装置4は、利用者2の位置情報(緯度及び経度)及び方向、並びに対象物情報に含まれる対象物1の位置情報(緯度及び経度)に基づいて、利用者2が注目する対象物1を特定するようにした。これにより、利用者2が移動している場合であっても、複数の対象物の中から利用者2が注目している対象物1を特定することができる。
As described above, according to the embodiment of the present invention, the measuring
また、本発明の実施形態によれば、計測装置4は、視野映像内のマーカを識別し、対象物情報に含まれるマーカの形式及び位置情報、エリアとマーカとの関係情報、興味関心度合い、利用者2の視点のデータから、その対象物1内において視点が存在するエリアを判定し、利用者2が興味を示している視線一致エリアを判定することができる。
Further, according to the embodiment of the present invention, the measuring
また、本発明の実施形態によれば、移動体端末5は、対象物1内で利用者2が興味をもっているエリアに対応付けられたアプリケーションを、アプリケーション情報に基づいて特定し起動するようにした。これにより、アプリケーションの起動に伴い、例えば画面表示された情報に基づいた利用者2の行動等のコンバージョン情報を得ることができ、利用者2の行動を分析することできる。
Further, according to the embodiment of the present invention, the
このように、本発明の実施形態によれば、移動する利用者2が注目している対象物1を特定し、その対象物1内で興味を示しているエリアを判定すると共に、利用者2の視線に基づいた情動反応を算出して客観的な結果を得るようにした。これにより、移動している利用者2に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。
As described above, according to the embodiment of the present invention, the
〔変形例〕
次に、図2に示したシステムの変形例について説明する。図16は、本発明の他の実施形態が適用される全体システムを示すブロック図である。このシステムは、図2に示したシステムと同様に、計測装置4、移動体端末5、及びサービスセンター6のサーバ10により、対象物1内の特定のエリアに興味を示す利用者2について、その行動を分析することを目的とするものである。図2に示したシステムと、図16に示すシステムとを比較すると、図16の計測装置4は、図2の計測装置4における眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43に加えて、さらに、生理反応解析部44及び外界条件解析部45を備えている点で相違する。また、この相違に伴い、計測装置4の行動分析・アプリケーション制御部43及びサーバ10の情報管理・分析部61による処理が相違する。
[Modification]
Next, a modification of the system shown in FIG. 2 will be described. FIG. 16 is a block diagram showing an overall system to which another embodiment of the present invention is applied. As in the system shown in FIG. 2, this system uses the
図16において、計測装置4は、眼球運動解析部41、位置方向解析部42、行動分析・アプリケーション制御部43、生理反応解析部44及び外界条件解析部45を備えている。眼球運動解析部41及び位置方向解析部42については、図2のものと同様であるので、ここでは説明を省略する。
In FIG. 16, the measuring
生理反応解析部44は、利用者2の所定箇所に付けられた脇下体温センサ及び体表センサから各種センサデータを入力し、入力した各種センサデータを解析し、体温、脈拍、体表温度及び発汗量を行動分析・アプリケーション制御部43に出力する。脇下体温センサは、利用者2の脇の下に付けられ、体温を検出するためのデータを出力する。体表センサは、例えば、下着または腕時計に付けられ、脈拍、体表温度及び発汗量を検出するためのデータを出力する。脈拍計を耳たぶに付けるようにしてもよい。
The physiological
外界条件解析部45は、利用者2が保持している温度センサ、湿度センサ及び光量センサから各種センサデータを入力し、入力した各種センサデータを解析し、利用者2の周囲環境の外界条件に関するデータである外気温、湿度及び光量を行動分析・アプリケーション制御部43に出力する。
The external
行動分析・アプリケーション制御部43は、対象物1の対象物情報を取得するための対象物取得要求を移動体端末5へ送信し、対象物情報を受信して記憶媒体に記憶する。また、行動分析・アプリケーション制御部43は、眼球運動解析部41から利用者2の視点及び瞳孔径並びに視野映像を、位置方向解析部42から利用者2の位置情報(緯度及び経度)及び方向を、生理反応解析部44から利用者2の体温、脈拍、体表温度及び発汗量を、外界条件解析部45から外気温、湿度及び光量をそれぞれ入力する。そして、行動分析・アプリケーション制御部43は、入力したこれらのデータを時系列に記憶媒体に格納する。
The behavior analysis /
また、行動分析・アプリケーション制御部43は、利用者2が注目している対象物1を特定し、対象物1について、利用者2が興味を示しているエリアである視線一致エリアを判定し、視線一致エリアの情動反応を算出し、算出した情動反応の値が所定の閾値より大きくなる時間帯を有意時間として設定し、これらの行動結果を記憶媒体に格納すると共に移動体端末5へ送信する。行動分析・アプリケーション制御部43は、有意時間における各データに対し、興味誘導要因としてフラグ付けする。
In addition, the behavior analysis /
以下、行動分析・アプリケーション制御部43による情動反応の算出及び有意時間の設定等の処理について詳細に説明する。行動分析・アプリケーション制御部43によるその他の処理については図2〜図4を用いて既に説明済みであるので、ここでは詳細な説明を省略する。
Hereinafter, processing such as calculation of emotional reaction and setting of significant time by the behavior analysis /
行動分析・アプリケーション制御部43のデータ同期管理制御部433は、位置方向解析部42から利用者2の位置情報(緯度及び経度)及び方向を入力すると共に、外界条件解析部45から外気温、湿度及び光量を入力し、入力したこれらのデータを同期させ、同期した位置情報(緯度及び経度)、方向、外気温、湿度及び光量を画像解析・エリア興味分析部434に出力する。
The data synchronization
画像解析・エリア興味分析部434は、眼球運動解析部41から視点、瞳孔径及び視野映像を、生理反応解析部44から体温、脈拍、体表温度及び発汗量を、データ同期管理制御部433から同期した位置情報(緯度及び経度)、方向、外気温、湿度及び光量をそれぞれ入力する。
The image analysis / area
そして、画像解析・エリア興味分析部434は、前述のように、対象物1を特定し、特定した対象物1において利用者2が興味を示している視線一致エリアを判定すると共に、瞳孔径、体温、脈拍、体表温度及び発汗量の時系列データ(各データは同期しているものとする)に基づいて情動反応を算出する。具体的には、画像解析・エリア興味分析部434は、瞳孔径の時系列データをp(t)、体温の時系列データをa(t)、脈拍の時系列データをb(t)、体表温度の時系列データをc(t)、発汗量の時系列データをd(t)、各時系列データへの重み値をそれぞれP,A,B,C,D、定数をSとすると、以下の式により情動反応E(t)を算出する。
E(t)=P・p(t)+A・a(t)+B・b(t)+C・c(t)+D・d(t)+S
Then, as described above, the image analysis / area
E (t) = P * p (t) + A * a (t) + B * b (t) + C * c (t) + D * d (t) + S
画像解析・エリア興味分析部434は、算出した情動反応E(t)と所定の閾値thとを比較し、情動反応E(t)が閾値th以上の場合に、その時間帯を有意時間として設定し、その時間帯のデータに対し興味誘導要因としてラベル付けをする。すなわち、以下の式により、J(t)=1のときのtを有意時間として設定する。
J(t)=1(if E(t)≧th)
=0(else)
The image analysis / area
J (t) = 1 (if E (t) ≧ th)
= 0 (else)
そして、画像解析・エリア興味分析部434は、特定した対象物1を識別するための対象物ID、エリア、視点、瞳孔径、視野映像、体温、脈拍、体表温度、発汗量、利用者2の位置情報(緯度及び経度)、利用者2の方向、外気温、湿度、光量、重み付けした瞳孔径の時系列データP・p(t)等、情動反応E(t)及びラベルを時刻データと共に解析データとして記憶媒体432に格納する。解析データは、移動体端末5を介してサービスセンター6へ送信される。
The image analysis / area
図17は、有意時間を説明する図である。図17に示すように、情動反応E(t)が閾値thよりも大きい時間帯をt1〜t2,t3〜t4とすると、有意時間はt1〜t2,t3〜t4となる。したがって、時間t1〜t2,t3〜t4においてJ(t)=1となるから、解析データは、有意時間t1〜t2,t3〜t4の各データにラベルが付けられ、有意時間t1〜t2,t3〜t4における各データが興味誘導要因となる。 FIG. 17 is a diagram for explaining the significant time. As shown in FIG. 17, when the time zone in which the emotional reaction E (t) is larger than the threshold th is t1 to t2 and t3 to t4, the significant time is t1 to t2, t3 to t4. Therefore, since J (t) = 1 at times t1 to t2 and t3 to t4, the analysis data is labeled with each data of significant times t1 to t2 and t3 to t4, and significant times t1 to t2 and t3. Each data at ~ t4 becomes an interest induction factor.
また、画像解析・エリア興味分析部434は、前述のとおり、特定した対象物1を識別するための対象物ID、判定した視線一致エリア、その視線一致エリアにおける視点の滞留時間、滞留開始時刻及び滞留終了時刻からなる行動結果を生成し、その行動結果を記憶媒体432に格納する。行動結果は、移動体端末5を介してサービスセンター6へ送信される。
Further, as described above, the image analysis / area
また、データ転送管理制御部435は、前述のとおり、視線一致エリアを判定し、視点が視線一致エリアから外れたときに、利用者2が興味を示したときの行動結果(対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻、視線一致エリアである旨)を送信するようにアプリケーション管理制御部431を介してデータ転送管理制御部435に指示する。そして、データ転送管理制御部435は、利用者2が興味を示したときの行動結果を、機能間通信部436を介して移動体端末5へ送信する。移動体端末5は、前述のとおり、計測装置4から利用者2が興味を示したときの行動結果を受信すると、その行動結果に対応するアプリケーションをアプリケーション情報から特定し、そのアプリケーションを起動する。また、データ転送管理制御部435は、所定の周期にて記憶媒体432から解析データ及び行動結果を読み出し、機能間通信部436を介して移動体端末5へ送信する。
Further, as described above, the data transfer
次に、図6に示したサーバ10における情報管理・分析部61のパラメータ設定部65について説明する。パラメータ設定部65は、前述のとおり、情動反応重み値設定部651、有意時間しきい値設定部652及び記憶媒体653を備えている。情動反応重み値設定部651は、情動反応E(t)を算出する際に用いる瞳孔径、体温、脈拍、体表温度及び発汗量の時系列データの重み値を設定し、移動体通信部62を介して送信する。設定した重み値は記憶媒体653に格納される。また、情動反応重み値設定部651は、記憶媒体653から重み値を読み出して修正し、移動体通信部62を介して送信すると共に、記憶媒体653に格納する。
Next, the parameter setting unit 65 of the information management / analysis unit 61 in the server 10 shown in FIG. 6 will be described. As described above, the parameter setting unit 65 includes the emotion reaction weight value setting unit 651, the significant time threshold
また、有意時間しきい値設定部652は、有意時間を算出する際に用いる閾値thを設定し、移動体通信部62を介して送信する。設定した閾値thは記憶媒体653に格納される。また、有意時間しきい値設定部652は、記憶媒体653から閾値thを読み出して修正し、移動体通信部62を介して送信すると共に、記憶媒体653に格納する。
The significant time
また、パラメータ設定部65は、情動反応E(t)を算出する際に用いる時系列データの項目を設定し、移動体通信部62を介して送信すると共に、記憶媒体653に格納する。これにより、情動反応E(t)は、計測装置4の行動分析・アプリケーション制御部43において、パラメータ設定部65により設定された時系列データの項目で算出される。このように、パラメータ設定部65は、計測装置4及び移動体端末5が動作するために必要な、重み値及び閾値th等の各種パラメータを設定し変更するようにしたから、サービスセンター6側から計測装置4及び移動体端末5を制御することができる。
Further, the parameter setting unit 65 sets items of time series data used when calculating the emotional reaction E (t), transmits the items via the
以上のように、本発明の他の実施形態によれば、移動している利用者2が注目する対象物1を特定し、その対象物1内で興味をもったエリアを判定すると共に、利用者2の視線に基づいた情動反応E(t)を算出して客観的な結果を得るようにした。これにより、移動している利用者2に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。
As described above, according to another embodiment of the present invention, the
また、本発明の他の実施形態によれば、サーバ10の情報管理・分析部61は、情動反応E(t)を算出するために必要な各時系列データの重み値P等を設定するようにした。また、情報管理・分析部61は、有意時間を算出するために必要な閾値thを設定するようにした。これにより、利用者2に応じて重み値P及び閾値thを設定することができるから、利用者2の体調、体質、環境等に応じた精度の高い情動反応E(t)を算出することができる。したがって、行動要因分析の高精度化を実現することができる。
Further, according to another embodiment of the present invention, the information management / analysis unit 61 of the server 10 sets the weight value P and the like of each time-series data necessary for calculating the emotional reaction E (t). I made it. In addition, the information management / analysis unit 61 sets a threshold th necessary for calculating a significant time. Thereby, since the weight value P and the threshold value th can be set according to the
以上、図2及び図16に示したシステムを用いて本発明の実施形態を説明したが、さらに、興味関心度合いの大きさに応じて、視野映像のズームアップ度及び解像度を変更するようにしてもよい。具体的には、画像解析・エリア興味分析部434は、利用者2が実際に対象物1を見ているときの興味関心度合い(例えば、視点滞留時間、瞳孔径の大きさ、図16の変形例における情動反応でもよい)を、前述したように算出する。そして、図示しないズーム制御部は、画像解析・エリア興味分析部434から興味関心度合いを入力し、閾値判定により興味関心度合いが大きいと判定したときは、ズームアップ度が大きくなるようにズームアップ度を設定し、視線方向映像用カメラ8のズームを制御する。これにより、視線方向映像解析部412及び画像解析・エリア興味分析部434は、図示しないズーム制御部により制御されたズームアップ度による視野映像を入力することができる。したがって、興味関心度合いに応じた行動分析を行うことができる。つまり、興味関心度合いが大きい場合は、鮮明な視野映像を得て利用者2が注目している箇所を一層明確にすることができるから、より以上に正確な行動分析を行うことができる。
As described above, the embodiment of the present invention has been described using the system shown in FIGS. 2 and 16, but the zoom-up degree and resolution of the visual field image are changed according to the degree of interest. Also good. Specifically, the image analysis / area
また、視線方向映像解析部412は、画像解析・エリア興味分析部434から興味関心度合いを入力し、閾値判定により興味関心度合いが大きいと判定したときは、解像度が高くなるように解像度を設定し、その解像度による視野映像を生成して出力する。これにより、画像解析・エリア興味分析部434は、興味関心度合いが大きい場合に高い解像度の視野映像を入力することができる。したがって、興味関心度合いに応じた行動分析を行うことができる。つまり、興味関心度合いが大きい場合は、鮮明な視野映像を得て利用者2が注目している箇所を一層明確にすることができるから、より以上に正確な行動分析を行うことができる。
The line-of-sight
この場合、サーバ10における情報管理・分析部61のパラメータ設定部65は、前述した図示しないズーム制御部及び視線方向映像解析部412における閾値のパラメータを設定し変更することができる。また、通常時のズームアップ度及び解像度、興味関心度合いが大きいときのズームアップ度及び解像度を含む、興味関心度合いに応じたズームアップ度及び解像度を設定し変更することができる。 In this case, the parameter setting unit 65 of the information management / analysis unit 61 in the server 10 can set and change the threshold parameters in the zoom control unit and the line-of-sight image analysis unit 412 (not shown). Also, it is possible to set and change the zoom-up degree and resolution according to the degree of interest, including the normal zoom-up degree and resolution, and the zoom-up degree and resolution when the degree of interest is large.
尚、計測装置4、移動体端末5及びサーバ10は、それぞれCPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。図2に示した計測装置4に備えた眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43の各機能、及び図16に示した眼球運動解析部41、位置方向解析部42、行動分析・アプリケーション制御部43、生理反応解析部44及び外界条件解析部45の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、移動体端末5に備えた機能制御部51の機能は、この機能を記述したプログラムをCPUに実行させることにより実現される。また、サーバ10に備えた情報管理・分析部61の機能は、この機能を記述したプログラムをCPUに実行させることにより実現される。また、これらのプログラムは、磁気ディスク(フロッピィー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。
The measuring
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、前記実施形態では、めがね3を用いるようにしたが、必ずしもめがね3である必要はなく、例えば、カメラが設けられた帽子であってもよい。要するに、カメラによって、利用者2の眼球画像及び視野映像が撮影されればよい。
The present invention has been described with reference to the embodiment. However, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the technical idea thereof. For example, in the above embodiment, the
また、前記実施形態では、計測装置4が瞳孔径を含む解析データを生成し、記憶媒体432に格納するようにしたが、必ずしも瞳孔径を含む必要はなく、例えば、瞬目回数、視点の滞留時間であってもよい。要するに、眼球画像から得られる利用者2の興味関心度合いまたは情動反応に関するデータであればよい。
In the embodiment, the
また、前記実施形態では、計測装置4が視点滞留時間を含む行動結果を生成し、記憶媒体432に格納するようにしたが、必ずしも視点滞留時間である必要はなく、例えば、瞳孔径、瞬目回数であってもよい。要するに、眼球画像から得られる利用者2の興味関心度合いまたは情動反応に関するデータであればよい。
In the embodiment, the
また、前記実施形態では、計測装置4が、生理反応データとして体温、脈拍、体表温度及び発汗量を扱うようにしたが、必ずしもこれらのデータである必要はなく、利用者2の生理反応に関するデータであればよい。また、前記実施形態では、計測装置4が、環境条件である外界条件のデータとして外気温、湿度及び光量を扱うようにしたが、必ずしもこれらのデータである必要はなく、利用者2の周囲の環境に関するデータであればよい。
Moreover, in the said embodiment, although the
1 対象物
2 利用者
3 めがね
4 計測装置
5 移動体端末
6 サービスセンター
7 ネットワーク
8 視野映像用カメラ
9 眼球画像用カメラ
10 サーバ
41 眼球運動解析部
42 位置方向解析部
43 行動分析・アプリケーション制御部
44 生理反応解析部
45 外界条件解析部
51 機能制御部
61 情報管理・分析部
62 移動体通信部
63 対象物情報管理部
64 情報分析部
65 パラメータ設定部
411 視点・瞳孔径解析部
412 視野映像解析部
421 緯度経度解析部
422 方向解析部
431 アプリケーション管理制御部
432 記憶媒体
433 データ同期管理制御部
434 画像解析・エリア興味分析部
435 データ転送管理制御部
436 機能間通信部
511 中央制御部
512 記憶媒体
513 機能間通信部
514 移動体通信部
631 管理部
632 設定部
633 記憶媒体
641 情報収集部
642 対象物効果測定部
643 行動分析部
644 お薦め情報生成部
645 記憶媒体
651 情動反応重み値設定部
652 有意時間しきい値設定部
653 記憶媒体
DESCRIPTION OF
Claims (9)
対象物の存在位置を示す位置情報、前記対象物内に配置されたマーカの存在位置を示す位置情報、及び、複数のマーカにより囲まれる前記エリアと前記マーカとの関係を示す関係情報を含む対象物情報を記憶する対象物情報記憶手段と、Object including position information indicating the position of the object, position information indicating the position of the marker arranged in the object, and relation information indicating the relationship between the area surrounded by a plurality of markers and the marker Object information storage means for storing object information;
前記対象物内のエリアと前記エリアに関するアプリケーションを起動するためのアプリケーション情報とを対応付けて記憶するアプリケーション情報記憶手段と、Application information storage means for storing an area in the object and application information for starting an application related to the area in association with each other;
前記利用者の移動に伴って変化する移動距離が所定距離以上である場合に、前記利用者の現在の存在位置を基点とした所定範囲を定める情報を含む取得要求を、ネットワークを介して、対象物情報及びアプリケーション情報を管理するサーバへ送信し、前記サーバから、前記取得要求における所定範囲内に設置された対象物についての対象物情報、及び前記対象物内のエリアに対応付けられたアプリケーション情報を受信し、前記対象物情報記憶手段及びアプリケーション情報記憶手段にそれぞれ格納する対象物情報及びアプリケーション情報収集手段と、When the moving distance that changes with the movement of the user is equal to or greater than a predetermined distance, an acquisition request including information defining a predetermined range based on the current location of the user is sent via the network. Object information and application information transmitted to a server that manages the object information about the object installed within a predetermined range in the acquisition request from the server, and application information associated with an area in the object And object information and application information collection means for storing the object information storage means and application information storage means, respectively,
前記対象物情報記憶手段に格納された対象物の位置情報を読み出し、前記利用者の現在の存在位置を基点とした前記利用者が向いている方向の所定範囲内に、前記読み出した対象物の位置情報が示す存在位置が含まれる場合に、前記対象物を、前記利用者が注目している対象物として特定する対象物特定手段と、Read the position information of the object stored in the object information storage means, and within the predetermined range in the direction the user is facing, based on the current location of the user Object specifying means for specifying the object as the object that the user is paying attention to when the presence position indicated by the position information is included;
前記利用者が向いている前方が撮影された視野映像から、前記対象物特定手段により特定された対象物に配置されたマーカを識別し、前記識別したマーカの位置情報を前記対象物情報記憶手段から読み出し、前記利用者が見ている視点位置と、前記読み出したマーカの位置情報が示すマーカ位置とにより、前記視点位置を囲む複数のマーカを特定し、前記対象物情報記憶手段に格納されたマーカとエリアとの関係情報を読み出し、前記複数のマーカが囲むエリアを特定し、前記特定したエリアに前記利用者の視点位置が所定時間以上滞留している場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定するエリア判定手段と、Identifying a marker placed on the object specified by the object specifying means from the field-of-view image taken in front of the user, and position information of the identified marker on the object information storage means From the viewpoint position that the user is viewing and the marker position indicated by the read marker position information, a plurality of markers that surround the viewpoint position are identified and stored in the object information storage means When the relationship information between the marker and the area is read, the area surrounded by the plurality of markers is specified, and when the user's viewpoint position stays in the specified area for a predetermined time or more, the specified area is Area determination means for determining the area within the target object that the user is paying attention to;
前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアへの視点滞留時間に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動するアプリケーション起動手段と、A plurality of pieces of application information associated with the area determined by the area determination unit are read out from the application information storage unit, and one of the plurality of pieces of application information is selected according to the viewpoint dwell time in the area. An application launching means for identifying and launching the application;
前記アプリケーション起動手段によるアプリケーションの起動に伴って、前記利用者による入力操作を、前記利用者が注目していた対象物内のエリアに対する行動情報として収集する情報収集手段と、Information collection means for collecting an input operation by the user as action information for an area in the target object that the user has been paying attention to in accordance with the activation of the application by the application activation means;
を備えたことを特徴とする端末装置。A terminal device comprising:
前記エリア判定手段は、前記特定したエリアに前記利用者の視点位置が存在し、前記利用者の眼球の瞳孔径が所定長以上である場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する、ことを特徴とする端末装置。The area determination means is configured to allow the user to pay attention to the specified area when the viewpoint position of the user exists in the specified area and the pupil diameter of the user's eyeball is equal to or larger than a predetermined length. The terminal device is characterized in that it is determined as an area within the target object.
前記アプリケーション起動手段は、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアに視点が滞留したときの眼球の瞳孔径に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する、ことを特徴とする端末装置。The application activation unit reads a plurality of pieces of application information associated with the area determined by the area determination unit from the application information storage unit, and according to the pupil diameter of the eyeball when the viewpoint stays in the area. A terminal device characterized in that one of the plurality of pieces of application information is specified and an application is activated.
前記アプリケーション情報を、ウェブページを指定するURLとする、ことを特徴とする端末装置。A terminal device characterized in that the application information is a URL designating a web page.
前記対象物情報及びアプリケーション情報収集手段が、前記利用者の移動に伴って変化する移動距離が所定距離以上である場合に、前記利用者の現在の存在位置を基点とした所定範囲を定める情報を含む取得要求を、ネットワークを介して、対象物情報及びアプリケーション情報を管理するサーバへ送信し、前記サーバから、前記取得要求における所定範囲内に設置された対象物についての対象物情報、及び前記対象物内のエリアに対応付けられたアプリケーション情報を受信し、前記対象物情報記憶手段及びアプリケーション情報記憶手段にそれぞれ格納する第1のステップと、The object information and application information collecting means, when the moving distance that changes with the movement of the user is a predetermined distance or more, information that defines a predetermined range based on the current location of the user Including the acquisition request including the object information and the application information via the network to the server that manages the object information and the application information, and the object information about the object installed within the predetermined range in the acquisition request, and the object A first step of receiving application information associated with an area in the object and storing the information in the object information storage unit and the application information storage unit, respectively;
前記対象物特定手段が、前記対象物情報記憶手段に格納された対象物の位置情報を読み出し、前記利用者の現在の存在位置を基点とした前記利用者が向いている方向の所定範囲内に、前記読み出した対象物の位置情報が示す存在位置が含まれる場合に、前記対象物を、前記利用者が注目している対象物として特定する第2のステップと、The object specifying means reads out the position information of the object stored in the object information storage means, and is within a predetermined range in the direction in which the user is facing based on the current location of the user. A second step of identifying the object as an object that the user is paying attention to when the presence position indicated by the position information of the read object is included;
前記エリア判定手段が、前記利用者が向いている前方が撮影された視野映像から、前記対象物特定手段により特定された対象物に配置されたマーカを識別し、前記識別したマーカの位置情報を前記対象物情報記憶手段から読み出し、前記利用者が見ている視点位置と、前記読み出したマーカの位置情報が示すマーカ位置とにより、前記視点位置を囲む複数のマーカを特定し、前記対象物情報記憶手段に格納されたマーカとエリアとの関係情報を読み出し、前記複数のマーカが囲むエリアを特定し、前記特定したエリアに前記利用者の視点位置が所定時間以上滞留している場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する第3のステップと、The area determining means identifies a marker placed on the object specified by the object specifying means from a visual field image taken in front of the user, and position information of the identified marker is obtained. A plurality of markers surrounding the viewpoint position are identified by the viewpoint position read from the object information storage means and viewed by the user and the marker position indicated by the position information of the read marker, and the object information When the relationship information between the marker and the area stored in the storage unit is read, the area surrounded by the plurality of markers is specified, and the user's viewpoint position stays in the specified area for a predetermined time or more, A third step of determining the identified area as an area within the object that the user is paying attention to;
前記アプリケーション起動手段が、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアへの視点滞留時間に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する第4のステップと、The application activation unit reads a plurality of pieces of application information associated with the area determined by the area determination unit from the application information storage unit, and the plurality of pieces of application information according to a viewpoint staying time in the area A fourth step of identifying one of the applications and launching the application;
前記情報収集手段が、前記アプリケーション起動手段によるアプリケーションの起動に伴って、前記利用者による入力操作を、前記利用者が注目していた対象物内のエリアに対する行動情報として収集する第5のステップと、A fifth step in which the information collecting means collects an input operation by the user as action information for an area in the target object that the user has noticed as the application is started by the application starting means; ,
を有することを特徴とする情報処理方法。An information processing method characterized by comprising:
前記第3のステップは、前記エリア判定手段が、前記特定したエリアに前記利用者の視点位置が存在し、前記利用者の眼球の瞳孔径が所定長以上である場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する、ことを特徴とする情報処理方法。In the third step, the area determination unit determines the specified area when the viewpoint position of the user exists in the specified area and the pupil diameter of the user's eyeball is equal to or larger than a predetermined length. The information processing method is characterized in that it is determined as an area in the target object that the user is paying attention to.
前記第4のステップは、前記アプリケーション起動手段が、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアに視点が滞留したときの眼球の瞳孔径に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する、ことを特徴とする情報処理方法。In the fourth step, the application activation unit reads a plurality of pieces of application information associated with the area determined by the area determination unit from the application information storage unit, and a viewpoint is retained in the area. An information processing method comprising: starting an application by specifying one of the plurality of pieces of application information according to a pupil diameter of an eyeball.
前記アプリケーション情報を、ウェブページを指定するURLとする、ことを特徴とする情報処理方法。An information processing method, wherein the application information is a URL designating a web page.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008227176A JP4282091B1 (en) | 2008-09-04 | 2008-09-04 | Terminal device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008227176A JP4282091B1 (en) | 2008-09-04 | 2008-09-04 | Terminal device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP4282091B1 true JP4282091B1 (en) | 2009-06-17 |
JP2010061452A JP2010061452A (en) | 2010-03-18 |
Family
ID=40872225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008227176A Expired - Fee Related JP4282091B1 (en) | 2008-09-04 | 2008-09-04 | Terminal device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4282091B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2011074198A1 (en) * | 2009-12-14 | 2013-04-25 | パナソニック株式会社 | User interface device and input method |
CN109804407A (en) * | 2016-09-29 | 2019-05-24 | 株式会社东芝 | It is concerned about maintenance system and server |
CN112631677A (en) * | 2020-12-21 | 2021-04-09 | 上海影创信息科技有限公司 | Resource support prompting method and system |
CN114639030A (en) * | 2020-12-01 | 2022-06-17 | 中移(成都)信息通信科技有限公司 | Method, apparatus, device and storage medium for determining interest information |
CN117763230A (en) * | 2023-12-21 | 2024-03-26 | 海南柠柠柒科技有限公司 | Data analysis method and system based on neural network model |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5828070B2 (en) | 2010-08-20 | 2015-12-02 | パナソニックIpマネジメント株式会社 | Imaging apparatus and imaging method |
CA2829597C (en) * | 2011-03-07 | 2015-05-26 | Kba2, Inc. | Systems and methods for analytic data gathering from image providers at an event or geographic location |
JP5711364B2 (en) * | 2011-05-24 | 2015-04-30 | Necソリューションイノベータ株式会社 | Information processing apparatus, control method therefor, control program, information processing system, and information processing method |
JP6395296B2 (en) * | 2014-08-25 | 2018-09-26 | 学校法人 芝浦工業大学 | Viewer attention information providing system, information providing apparatus and program thereof |
JP2017016287A (en) * | 2015-06-30 | 2017-01-19 | パイオニア株式会社 | Transmission device, server device, control method, program, and storage medium |
CN106951523B (en) * | 2017-03-20 | 2019-12-10 | 北京搜狐新媒体信息技术有限公司 | object processing method and system |
JP6298561B1 (en) * | 2017-05-26 | 2018-03-20 | 株式会社コロプラ | Program executed by computer capable of communicating with head mounted device, information processing apparatus for executing the program, and method executed by computer capable of communicating with head mounted device |
CN111837151A (en) * | 2018-03-13 | 2020-10-27 | 株式会社钟化 | Judgment System and Judgment Method |
JP7342409B2 (en) * | 2019-04-16 | 2023-09-12 | 凸版印刷株式会社 | Observation status display system, observation status display method and program |
US20240071007A1 (en) * | 2022-08-31 | 2024-02-29 | Snap Inc. | Multi-dimensional experience presentation using augmented reality |
-
2008
- 2008-09-04 JP JP2008227176A patent/JP4282091B1/en not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2011074198A1 (en) * | 2009-12-14 | 2013-04-25 | パナソニック株式会社 | User interface device and input method |
JP5602155B2 (en) * | 2009-12-14 | 2014-10-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | User interface device and input method |
CN109804407A (en) * | 2016-09-29 | 2019-05-24 | 株式会社东芝 | It is concerned about maintenance system and server |
CN109804407B (en) * | 2016-09-29 | 2023-07-18 | 株式会社东芝 | Care maintenance system and server |
CN114639030A (en) * | 2020-12-01 | 2022-06-17 | 中移(成都)信息通信科技有限公司 | Method, apparatus, device and storage medium for determining interest information |
CN112631677A (en) * | 2020-12-21 | 2021-04-09 | 上海影创信息科技有限公司 | Resource support prompting method and system |
CN117763230A (en) * | 2023-12-21 | 2024-03-26 | 海南柠柠柒科技有限公司 | Data analysis method and system based on neural network model |
Also Published As
Publication number | Publication date |
---|---|
JP2010061452A (en) | 2010-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4282091B1 (en) | Terminal device, information processing method, and program | |
US11417066B2 (en) | System and method for selecting targets in an augmented reality environment | |
US11164213B2 (en) | Systems and methods for remembering held items and finding lost items using wearable camera systems | |
KR101229078B1 (en) | Apparatus And Method for Mixed Reality Content Operation Based On Indoor and Outdoor Context Awareness | |
US8954433B2 (en) | Generating a recommendation to add a member to a receptivity cohort | |
JP5994397B2 (en) | Information processing apparatus, information processing method, and program | |
US20220191568A9 (en) | Systems and methods for providing recommendations based on tracked activities | |
KR101643915B1 (en) | Construction system for big data reflect regional characteristics tailored ads | |
US20100153180A1 (en) | Generating Receptivity Cohorts | |
KR20130065586A (en) | Apparatus and method for displaying mobile advertising | |
US20110161163A1 (en) | Wearable advertising ratings methods and systems | |
WO2018127782A1 (en) | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command | |
CN106662458A (en) | Wearable sensor data to improve map and navigation data | |
JP2011096173A (en) | System, terminal, server, method and program for providing information | |
JP2014230616A (en) | Sport supporting system, terminal device, server device, information providing method, information totaling method, information providing program, and information totaling program | |
JP2015005175A (en) | Information processing device, communication system, and information processing method | |
CA2976464A1 (en) | Method and system for wireless location and movement mapping, tracking and analytics | |
US9788164B2 (en) | Method and apparatus for determination of kinematic parameters of mobile device user | |
KR101554776B1 (en) | A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor | |
Stuart et al. | Do you see what I see? Mobile eye-tracker contextual analysis and inter-rater reliability | |
JP2017016287A (en) | Transmission device, server device, control method, program, and storage medium | |
JP2007156637A (en) | Information retrieval device, program and information retrieval system | |
WO2013024667A1 (en) | Site of interest extraction device, site of interest extraction method, and computer-readable recording medium | |
JP7251651B2 (en) | Augmented Reality Announcement Information Delivery System and Its Delivery Control Device, Method and Program | |
WO2018128542A1 (en) | Method and system for providing information of an animal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090311 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090316 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120327 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120327 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150327 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |