[go: up one dir, main page]

JP2013180076A - Analysis supporting device and program - Google Patents

Analysis supporting device and program Download PDF

Info

Publication number
JP2013180076A
JP2013180076A JP2012046158A JP2012046158A JP2013180076A JP 2013180076 A JP2013180076 A JP 2013180076A JP 2012046158 A JP2012046158 A JP 2012046158A JP 2012046158 A JP2012046158 A JP 2012046158A JP 2013180076 A JP2013180076 A JP 2013180076A
Authority
JP
Japan
Prior art keywords
viewpoint
subject
degree
electroencephalograph
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012046158A
Other languages
Japanese (ja)
Inventor
Yasuhisa Matsuba
靖寿 松葉
Tetsutaro Ono
徹太郎 小野
Hayato Oki
隼 沖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2012046158A priority Critical patent/JP2013180076A/en
Publication of JP2013180076A publication Critical patent/JP2013180076A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

【課題】脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力する。
【解決手段】分析支援装置の制御部は、所定のサンプリング間隔ごとに算出される興味度80から、時系列のグラフデータを生成し(S51)、視点座標データ55をシーン映像62に1フレームずつ対応付けて(S52)、時間差61に基づいて時系列を同期して、S51において生成される興味度80の曲線データと、S52において視点座標が対応付けられるシーン映像とを、同一画面の表示部に表示する(S53)。
【選択図】図9
A measurement result of both an electroencephalograph and a viewpoint tracking device is output for easy analysis.
A control unit of an analysis support apparatus generates time-series graph data from an interest degree 80 calculated at a predetermined sampling interval (S51), and viewpoint coordinate data 55 is framed in a scene video 62 frame by frame. Corresponding (S52), synchronizing the time series based on the time difference 61, the curve data of the degree of interest 80 generated in S51 and the scene video to which the viewpoint coordinates are associated in S52 are displayed on the same screen. (S53).
[Selection] Figure 9

Description

本発明は、市場調査のために、脳波計及び視点追跡装置による計測結果の分析を支援する分析支援装置などに関するものである。   The present invention relates to an analysis support device that supports analysis of measurement results by an electroencephalograph and a viewpoint tracking device for market research.

従来から、脳波計や視点追跡装置を単独で用いて、TVCMや雑誌広告などの効果測定(市場調査の一例)が行われている。特許文献1には脳波計を単独で用いる例、特許文献2には視点追跡装置を単独で用いる例が開示されている。   Conventionally, effect measurement (an example of market research) such as TVCM and magazine advertisement has been performed using an electroencephalograph and a viewpoint tracking device alone. Patent Document 1 discloses an example using an electroencephalograph alone, and Patent Document 2 discloses an example using a viewpoint tracking device alone.

特許文献1では、回答者(本発明の「対象者」に相当)の脳活動のモニタ結果に応じて、アンケートなどの質問に対する回答を解析することにより、回答者の正直な回答が得られる回答獲得装置が開示されている。特許文献1では、回答者Aは、脳活動に伴って発生する電場を計測する第1センサ2と脳血流の状態を検出する第2センサ3とを有するブレインハット1を頭部に被る。解析装置11は、回答者Aの脳活動を表す情報(第1センサ2で得られた脳内電場を示す信号と第2センサ3で得られた脳血流の状態を示す信号)に基づいて、アンケートの質問に対する回答者Aの回答を解析する。   According to Patent Document 1, an answer that provides an honest answer of a respondent is obtained by analyzing an answer to a question such as a questionnaire in accordance with a result of monitoring a brain activity of the respondent (corresponding to the “subject” of the present invention). An acquisition device is disclosed. In Patent Document 1, the respondent A puts on his head a brain hat 1 having a first sensor 2 that measures an electric field generated along with brain activity and a second sensor 3 that detects a state of cerebral blood flow. The analysis device 11 is based on information indicating the brain activity of the respondent A (a signal indicating the intracerebral electric field obtained by the first sensor 2 and a signal indicating the state of cerebral blood flow obtained by the second sensor 3). The answer of the respondent A to the questionnaire question is analyzed.

特許文献2では、消費者が、パンフレットなどの紙媒体を手に取り、商品を認知するまでの行動などを分析するための注視点計測装置などが開示されている。特許文献2では、マーカーレスのアイトラッキング装置2(視点追跡装置)を用いている。特許文献2に開示されている注視点計測装置1は、対象物体5の端が湾曲したり、対象物体5の内部に凹凸が生じたりして、対象物体5が変形しても、注視点7の位置を正確に自動計測することができる。   Patent Document 2 discloses a gaze point measuring device for a consumer to take a paper medium such as a pamphlet and analyze the behavior until the product is recognized. In Patent Document 2, a markerless eye tracking device 2 (viewpoint tracking device) is used. The gazing point measurement device 1 disclosed in Patent Document 2 has a gazing point 7 even if the end of the target object 5 is curved or an unevenness is generated inside the target object 5 and the target object 5 is deformed. The position of can be measured automatically and accurately.

特開2006−305334号公報JP 2006-305334 A 特開2011−194105号公報JP 2011-194105 A

ところで、分析者は、脳波計と視点追跡装置の計測結果から、それぞれ異なる観点で分析することできる。従って、脳波計及び視点追跡装置による両方の計測結果を分析することは、有意義である。しかしながら、現状では、脳波計や視点追跡装置を単独で用いており、脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力する仕組みがない。   By the way, the analyst can analyze from different viewpoints from the measurement results of the electroencephalograph and the viewpoint tracking device. Therefore, it is meaningful to analyze the measurement results of both the electroencephalograph and the viewpoint tracking device. However, at present, an electroencephalograph or a viewpoint tracking device is used alone, and there is no mechanism for outputting both measurement results of the electroencephalograph and the viewpoint tracking device so that they can be easily analyzed.

本発明は、前述した問題点に鑑みてなされたものであり、その目的とすることは、脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力することが可能な分析支援装置などを提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an analysis support device capable of easily outputting both measurement results by an electroencephalograph and a viewpoint tracking device. And so on.

前述した目的を達成するための第1の発明は、コンテンツを閲覧している被験者に対する脳波計及び視点追跡装置による計測結果の分析を支援する分析支援装置であって、前記脳波計によって計測される前記被験者の脳波データと、前記視点追跡装置によって計測される前記被験者の視点座標データと、前記視点追跡装置によって撮像される前記コンテンツに係るシーン映像又はスナップショット画像と、前記脳波計による計測開始時刻及び前記視点追跡装置による計測開始時刻の時間差とを記憶する記憶手段と、前記脳波データに基づいて前記被験者の潜在意識度を算出する潜在意識度算出手段と、前記視点座標データに基づいて前記被験者の視点座標を前記シーン映像又は前記スナップショット画像に対応付ける対応付け手段と、前記時間差に基づいて時系列を同期して、前記被験者の視点座標が対応付けられる前記シーン映像又は前記スナップショット画像と、前記潜在意識度とを同一画面に表示する表示手段と、を具備することを特徴とする分析支援装置である。第1の発明によって、脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力することができる。   A first invention for achieving the above-described object is an analysis support device that supports analysis of measurement results by an electroencephalograph and a viewpoint tracking device for a subject who is browsing content, and is measured by the electroencephalograph The subject's brain wave data, the subject's viewpoint coordinate data measured by the viewpoint tracking device, the scene video or snapshot image related to the content imaged by the viewpoint tracking device, and the measurement start time by the electroencephalograph And a storage means for storing a time difference in measurement start time by the viewpoint tracking device, a subconscious degree calculating means for calculating a subconscious degree of the subject based on the electroencephalogram data, and the subject based on the viewpoint coordinate data An association means for associating the viewpoint coordinates with the scene image or the snapshot image, and A display means for synchronizing the time series based on the difference and displaying the scene video or the snapshot image associated with the subject's viewpoint coordinates and the subconsciousness degree on the same screen. It is a characteristic analysis support device. According to the first invention, it is possible to output both measurement results by the electroencephalograph and the viewpoint tracking device so as to be easily analyzed.

第1の発明における前記脳波データには前記脳波計による計測開始時刻、前記視点座標データには前記視点追跡装置による計測開始時刻が含まれており、前記脳波データ及び前記視点座標データに基づいて前記時間差を算出し、前記時間差を前記記憶手段に記憶する時間差算出手段、を更に具備することが望ましい。これによって、脳波データと視点座標データとの時間差を自動的に算出することができる。ひいては、分析者の負荷が軽減される。ここで潜在意識度とは、コンテンツを閲覧している被験者の意識(無意識)の働きを、脳波計によって取得される脳波データに基づいてある一定の尺度により数量化したデータである。   In the first invention, the electroencephalogram data includes a measurement start time by the electroencephalograph, and the viewpoint coordinate data includes a measurement start time by the viewpoint tracking device. Based on the electroencephalogram data and the viewpoint coordinate data, It is desirable to further comprise time difference calculation means for calculating a time difference and storing the time difference in the storage means. Thereby, the time difference between the electroencephalogram data and the viewpoint coordinate data can be automatically calculated. As a result, the load on the analyst is reduced. Here, the degree of subconsciousness is data obtained by quantifying the consciousness (unconsciousness) of the subject who is browsing the content on a certain scale based on the electroencephalogram data acquired by the electroencephalograph.

例えば、第1の発明における前記対応付け手段は、前記視点座標を前記シーン映像に1フレームずつ対応付け、前記表示手段は、前記視点座標の位置を示す視点マークを重畳しながら前記シーン映像を再生するとともに、前記シーン映像の再生位置を示すタイムラインを重畳しながら前記潜在意識度の変動を時系列のグラフとして描画する。これによって、TVCMなどの動画像や被験者が移動するなどの動的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。例えば、分析者は、潜在意識度がピークのとき、被験者が動的コンテンツのどの場面の、どの位置を視聴しているのかを容易に視認することができる。   For example, the association means in the first invention associates the viewpoint coordinates with the scene image frame by frame, and the display means reproduces the scene image while superimposing a viewpoint mark indicating the position of the viewpoint coordinates. At the same time, the subconsciousness variation is drawn as a time-series graph while superimposing a timeline indicating the playback position of the scene video. Thus, in the case of a dynamic image such as a moving image such as a TVCM or a subject moving, the analyst can view the subject's subconsciousness and the change in viewpoint at the same time. For example, the analyst can easily visually recognize which scene and which position of the dynamic content the subject is viewing when the subconsciousness is at the peak.

また、例えば、第1の発明における前記対応付け手段は、前記視点座標を前記シーン映像に1フレームずつ対応付け、更に、前記視点座標の位置を示す視点マークの装飾度合を前記潜在意識度に応じて決定し、前記表示手段は、前記装飾度合に応じて装飾された前記視点マークを重畳しながら前記シーン映像を再生するとともに、前記シーン映像の再生位置を示すタイムラインを重畳しながら前記潜在意識度の変動を時系列のグラフとして描画する。これによって、TVCMなどの動画像や被験者が移動するなどの動的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。特に、視点マークが潜在意識度に応じて装飾されて表示されるので、分析者は、潜在意識度の変動を動的コンテンツ上で視認することができる。   Further, for example, the association means in the first invention associates the viewpoint coordinates with the scene image frame by frame, and further determines the degree of decoration of the viewpoint mark indicating the position of the viewpoint coordinates according to the subconsciousness level. The display means reproduces the scene video while superimposing the viewpoint marks decorated according to the degree of decoration, and superimposes the subconsciousness while superimposing a timeline indicating the playback position of the scene video. Draw the degree variation as a time-series graph. Thus, in the case of a dynamic image such as a moving image such as a TVCM or a subject moving, the analyst can view the subject's subconsciousness and the change in viewpoint at the same time. In particular, since the viewpoint mark is decorated and displayed according to the degree of subconsciousness, the analyst can visually recognize the change in the subconscious degree on the dynamic content.

また、例えば、第1の発明における前記対応付け手段は、前記視点座標を前記スナップショット画像の座標系に座標変換して単一の前記スナップショット画像に対応付け、更に、前記視点座標の位置を示す視点マークの装飾度合を前記潜在意識度に応じて決定するとともに、前記視点座標ごとに閲覧時間を算出して前記視点マークの面積度合を前記閲覧時間に応じて決定し、前記表示手段は、前記視点座標ごとに、前記装飾度合に応じて装飾された前記面積度合の面積を有する前記視点マークを重畳して前記スナップショット画像を表示する。これによって、雑誌広告やチラシなどの静的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。例えば、分析者は、被験者が静的コンテンツのどの位置をどのぐらいの時間どのくらいの潜在意識度で視聴しているのかを容易に視認することができる。   Further, for example, the associating means according to the first aspect of the present invention performs coordinate transformation of the viewpoint coordinates into a coordinate system of the snapshot image and associates the viewpoint coordinates with a single snapshot image, and further determines the position of the viewpoint coordinates. The degree of decoration of the viewpoint mark to be displayed is determined according to the subconscious degree, the viewing time is calculated for each viewpoint coordinate, the area degree of the viewpoint mark is determined according to the browsing time, and the display means For each of the viewpoint coordinates, the snapshot image is displayed by superimposing the viewpoint mark having the area of the area degree decorated according to the decoration degree. As a result, in the case of static content such as magazine advertisements and leaflets, the analyst can simultaneously view the subject's subconsciousness and changes in viewpoint. For example, the analyst can easily visually recognize which position of the static content the subject is viewing for what time and for what degree of subconsciousness.

第2の発明は、コンピュータを、コンテンツを閲覧している被験者に対する脳波計及び視点追跡装置による計測結果の分析を支援する分析支援装置として機能させるためのプログラムであって、前記脳波計によって計測される前記被験者の脳波データと、前記視点追跡装置によって計測される前記被験者の視点座標データと、前記視点追跡装置によって撮像される前記コンテンツに係るシーン映像又はスナップショット画像と、前記脳波計による計測開始時刻及び前記視点追跡装置による計測開始時刻の時間差とを記憶する記憶手段と、前記脳波データに基づいて前記被験者の潜在意識度を算出する潜在意識度算出手段と、前記視点座標データに基づいて前記被験者の視点座標を前記シーン映像又は前記スナップショット画像に対応付ける対応付け手段と、前記時間差に基づいて時系列を同期して、前記被験者の視点座標が対応付けられる前記シーン映像又は前記スナップショット画像と、前記潜在意識度とを同一画面に表示する表示手段として機能させるためのプログラムである。第2の発明のプログラムを汎用のコンピュータにインストールすることによって、脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力することが可能な分析支援装置を得ることができる。   A second invention is a program for causing a computer to function as an analysis support device that supports analysis of measurement results by an electroencephalograph and a viewpoint tracking device for a subject who is browsing content, and is measured by the electroencephalograph The subject's brain wave data, the subject's viewpoint coordinate data measured by the viewpoint tracking device, the scene video or snapshot image related to the content imaged by the viewpoint tracking device, and the start of measurement by the electroencephalograph Storage means for storing a time and a time difference between measurement start times by the viewpoint tracking device; subconsciousness calculating means for calculating a subconsciousness degree of the subject based on the electroencephalogram data; and A pair that associates the viewpoint coordinates of the subject with the scene image or the snapshot image. Function as display means for displaying the scene video or the snapshot image associated with the subject's viewpoint coordinates and the subconscious degree on the same screen in synchronization with time series based on the time difference It is a program to make it. By installing the program of the second invention in a general-purpose computer, it is possible to obtain an analysis support apparatus capable of outputting both measurement results by the electroencephalograph and the viewpoint tracking apparatus so as to be easily analyzed.

本発明により、脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力することが可能な分析支援装置などを提供することができる。   According to the present invention, it is possible to provide an analysis support apparatus and the like that can output both measurement results obtained by the electroencephalograph and the viewpoint tracking apparatus so as to be easily analyzed.

市場調査システム1の概要図Overview of market research system 1 分析支援装置2に記憶されるデータの一例An example of data stored in the analysis support apparatus 2 市場調査システム1全体の処理を示すフローチャートFlow chart showing overall processing of market research system 1 フィルタ算出処理の一例を示すフローチャートFlow chart showing an example of filter calculation processing S41を説明する図The figure explaining S41 S42を説明する図The figure explaining S42 S43を説明する図The figure explaining S43 S44を説明する図The figure explaining S44 第1実施形態における分析支援装置2の処理を示すフローチャートThe flowchart which shows the process of the analysis assistance apparatus 2 in 1st Embodiment. 第1実施形態における表示例Display example in the first embodiment 第2実施形態における分析支援装置2の処理を示すフローチャートThe flowchart which shows the process of the analysis assistance apparatus 2 in 2nd Embodiment. 第2実施形態における表示例Display example in the second embodiment 第3実施形態における分析支援装置2の処理を示すフローチャートThe flowchart which shows the process of the analysis assistance apparatus 2 in 3rd Embodiment. 第3実施形態における表示例Display example in the third embodiment

以下図面に基づいて、本発明の実施形態を詳細に説明する。最初に、用語の定義について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, the definition of terms will be explained.

市場調査とは、商品やサービスを提供する企業や、商品やサービスの広告を制作する企業などが、市場における消費者の消費行動を調査することである。ここで、本発明の実施形態では、対象とする商品やサービスの内容は問わない。以下では、商品やサービス内容、商品の包装、及び商品やサービスの広告などを総称して、「コンテンツ」と表記する。   Market research means that companies that provide products and services, companies that produce advertisements for products and services, etc. investigate consumer behavior in the market. Here, in the embodiment of the present invention, the content of the target product or service is not questioned. Hereinafter, the product and service content, the product packaging, and the advertisement of the product and service are collectively referred to as “content”.

コンテンツの一例としては、TVCMなどの動画像、雑誌広告やチラシなどの紙媒体又は電子媒体、商品棚や本棚などの什器を含む商品配置、などが挙げられる。商品配置の場合、被験者の移動を前提としている。動画像などで、動きがあるコンテンツは、「動的コンテンツ」と表記する。紙媒体や電子媒体などで、動きがないコンテンツは、「静的コンテンツ」と表記する。後述する第1実施形態及び第2実施形態は動的コンテンツと静的コンテンツ、第3実施形態は静的コンテンツを対象としている。   Examples of the content include moving images such as TVCM, paper or electronic media such as magazine advertisements and leaflets, and product placement including furniture such as product shelves and book shelves. In the case of product placement, it is assumed that the subject is moving. Content with motion, such as moving images, is referred to as “dynamic content”. Content that does not move, such as paper or electronic media, is referred to as “static content”. A first embodiment and a second embodiment to be described later target dynamic content and static content, and a third embodiment targets static content.

潜在意識度とは、コンテンツを閲覧している被験者の意識(無意識)の働きを、脳波計によって取得される脳波データに基づいてある一定の尺度により数量化したデータである。潜在意識度は、例えば、被験者の潜在的な興味関心の度合を示す興味度や、被験者の潜在的な理解の度合を示す理解度などを示すものと考えられる場合がある。また、潜在意識度は、これらの例に限定されず、市場調査の内容に応じて捉え方は様々である。後述する第1実施形態、第2実施形態及び第3実施形態では、興味度と捉えている。   The subconsciousness level is data obtained by quantifying the consciousness (unconsciousness) of the subject who is browsing the content on a certain scale based on the electroencephalogram data acquired by the electroencephalograph. The subconsciousness level may be considered to indicate, for example, an interest level indicating the degree of the subject's potential interest and an understanding level indicating the degree of the subject's potential understanding. In addition, the degree of subconsciousness is not limited to these examples, and there are various ways of understanding depending on the contents of market research. In the first embodiment, the second embodiment, and the third embodiment described later, this is regarded as the degree of interest.

図1〜図8を参照しながら、全ての実施形態に共通する内容について説明する。   The contents common to all the embodiments will be described with reference to FIGS.

図1は、市場調査システム1の概要図である。図1に示すように、市場調査システム1は、分析支援装置2、脳波計3、及び視点追跡装置4などを含む。市場調査システム1は、コンテンツを閲覧している被験者の脳波データ及び視点座標データを計測し、分析者が計測結果を分析することを支援する。   FIG. 1 is a schematic diagram of a market research system 1. As shown in FIG. 1, the market research system 1 includes an analysis support device 2, an electroencephalograph 3, a viewpoint tracking device 4, and the like. The market research system 1 measures the electroencephalogram data and viewpoint coordinate data of the subject who is browsing the content, and assists the analyst to analyze the measurement results.

図1に示す例では、分析支援装置2及び脳波計3は、有線ケーブルを介してデータの送受信を行う。分析支援装置2及び脳波計3が無線通信装置を備えている場合、分析支援装置2及び脳波計3は、無線波を介してデータの送受信を行っても良い。   In the example illustrated in FIG. 1, the analysis support apparatus 2 and the electroencephalograph 3 perform data transmission / reception via a wired cable. When the analysis support apparatus 2 and the electroencephalograph 3 are provided with a wireless communication device, the analysis support apparatus 2 and the electroencephalograph 3 may perform data transmission / reception via a radio wave.

図1に示す例では、分析支援装置2及び視点追跡装置4は、記憶媒体47を介してデータの送受信を行う。記憶媒体47の一例としては、例えば、SDメモリカードに代表される記憶カードや、CD−R(Compact Disk−Recordable)に代表される記憶ディスクや、USB(Universal Serial Bus)メモリなどに代表される端子付補助記憶装置などがある。分析支援装置2及び脳波計3が有線ケーブルのI/O(Input/Output interface)を備えている場合、分析支援装置2及び脳波計3は、有線ケーブルを介してデータの送受信を行っても良い。分析支援装置2及び脳波計3が無線通信装置を備えている場合、分析支援装置2及び脳波計3は、無線波を介してデータの送受信を行っても良い。   In the example illustrated in FIG. 1, the analysis support apparatus 2 and the viewpoint tracking apparatus 4 transmit and receive data via the storage medium 47. Examples of the storage medium 47 include a storage card typified by an SD memory card, a storage disk typified by a CD-R (Compact Disk-Recordable), and a USB (Universal Serial Bus) memory. There are auxiliary storage devices with terminals. When the analysis support apparatus 2 and the electroencephalograph 3 are provided with a wired cable I / O (Input / Output interface), the analysis support apparatus 2 and the electroencephalograph 3 may transmit and receive data via the wired cable. . When the analysis support apparatus 2 and the electroencephalograph 3 are provided with a wireless communication device, the analysis support apparatus 2 and the electroencephalograph 3 may perform data transmission / reception via a radio wave.

分析支援装置2は、コンテンツを閲覧している被験者に対する脳波計3及び視点追跡装置4による計測結果の分析を支援する。分析支援装置2は、コンピュータである。コンピュータの一例としては、デスクトップ型PC(Personal Computer)、ノート型PC、スマートフォン、タブレット型端末、携帯電話端末、ゲーム端末などがある。以下では、分析支援装置2は、デスクトップ型PCやノート型PCなどの汎用コンピュータとして説明する。   The analysis support apparatus 2 supports the analysis of the measurement result by the electroencephalograph 3 and the viewpoint tracking apparatus 4 for the subject who is browsing the content. The analysis support apparatus 2 is a computer. Examples of the computer include a desktop PC (Personal Computer), a notebook PC, a smartphone, a tablet terminal, a mobile phone terminal, and a game terminal. Hereinafter, the analysis support apparatus 2 will be described as a general-purpose computer such as a desktop PC or a notebook PC.

分析支援装置2は、制御部21、記憶部22、表示部23、入力部24、I/O25などを備える。   The analysis support apparatus 2 includes a control unit 21, a storage unit 22, a display unit 23, an input unit 24, an I / O 25, and the like.

制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などから構成される。CPUは、記憶部22、ROM、記憶媒体などに格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、各装置を駆動制御し、分析支援装置2が行う後述する処理を実現する。ROMは、不揮発性メモリであり、分析支援装置2のブートプログラムやBIOSなどのプログラム、データなどを恒久的に保持している。RAMは、揮発性メモリであり、記憶部22、ROM、記憶媒体などからロードしたプログラム、データなどを一時的に保持するとともに、制御部21が各種処理を行う為に使用するワークエリアを備える。   The control unit 21 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU calls a program stored in the storage unit 22, ROM, storage medium, or the like to a work memory area on the RAM, executes it, controls the drive of each device, and realizes the processing described later performed by the analysis support device 2. The ROM is a non-volatile memory, and permanently stores programs such as a boot program and BIOS of the analysis support apparatus 2, data, and the like. The RAM is a volatile memory, and temporarily holds a program, data, and the like loaded from the storage unit 22, ROM, storage medium, and the like, and includes a work area used by the control unit 21 to perform various processes.

記憶部22は、例えば、HDD(Hard Disk Drive)であり、制御部21が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)などが格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理を分析支援装置2に実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部21により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。   The storage unit 22 is an HDD (Hard Disk Drive), for example, and stores a program executed by the control unit 21, data necessary for program execution, an OS (Operating System), and the like. As for the program, a control program corresponding to the OS and an application program for causing the analysis support apparatus 2 to execute processing described later are stored. Each of these program codes is read by the control unit 21 as necessary, transferred to the RAM, read by the CPU, and executed as various means.

表示部23は、液晶パネルなどのディスプレイ装置、ディスプレイ装置と連携して分析支援装置2のビデオ機能を実現するための論理回路など(ビデオアダプタなど)を有する。入力部24は、データの入力を行い、例えば、キーボード、マウスなどのポインティングデバイス、テンキーなどの入力装置を有する。入力部24を介して、分析支援装置2に対して、操作指示、動作指示、データ入力などを行うことができる。尚、表示部23及び入力部24は、タッチパネルディスプレイのように、一体となっていても良い。   The display unit 23 includes a display device such as a liquid crystal panel and a logic circuit (such as a video adapter) for realizing the video function of the analysis support device 2 in cooperation with the display device. The input unit 24 inputs data and includes, for example, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad. An operation instruction, an operation instruction, data input, and the like can be performed on the analysis support apparatus 2 via the input unit 24. The display unit 23 and the input unit 24 may be integrated like a touch panel display.

I/O25は、分析支援装置2に周辺機器(例えば、脳波計3、記憶媒体47などの外部記憶装置、プリンタ(不図示)、ネットワーク機器(不図示))を接続するためのポートや送受信機である。分析支援装置2は、I/O25を介して周辺機器とのデータの送受信を行う。I/O25の一例としては、USB、IEEE1394、RS−232Cなどのポートや、記憶媒体47を読み書きするためのドライブ装置や、無線LAN機器や、Bluetooth(登録商標)送受信機などがある。周辺機器との接続形態は、有線、無線を問わない。   The I / O 25 is a port or a transceiver for connecting peripheral devices (for example, an external storage device such as an electroencephalograph 3 and a storage medium 47, a printer (not shown), a network device (not shown)) to the analysis support device 2 It is. The analysis support apparatus 2 transmits / receives data to / from peripheral devices via the I / O 25. Examples of the I / O 25 include USB, IEEE 1394, RS-232C, and other ports, a drive device for reading and writing the storage medium 47, a wireless LAN device, a Bluetooth (registered trademark) transceiver, and the like. The connection form with the peripheral device may be wired or wireless.

脳波計3は、ヘッドバンド31、電極32、変換器33、増幅器34などを備える。脳波計3は、被験者の頭部、詳細には国際10−20法におけるFp1に当たる箇所(左前部前頭葉)に、ヘッドバンド31によって固定された電極32が当接する構造となっている。Fp1は、一般に感情や情動に関する反応を計測できることが知られている。変換器33は、電極32から出力されるアナログ信号をデジタル信号に変換する。増幅器34は、変換器33から出力されるデジタル信号を増幅し、分析支援装置2のI/O25に出力する。A/D変換におけるサンプリング周波数は例えば1024Hzである。   The electroencephalograph 3 includes a headband 31, an electrode 32, a converter 33, an amplifier 34, and the like. The electroencephalograph 3 has a structure in which an electrode 32 fixed by a headband 31 is in contact with the head of a subject, specifically, a position corresponding to Fp1 in the international 10-20 method (left frontal lobe). Fp1 is generally known to be able to measure reactions related to emotions and emotions. The converter 33 converts the analog signal output from the electrode 32 into a digital signal. The amplifier 34 amplifies the digital signal output from the converter 33 and outputs it to the I / O 25 of the analysis support apparatus 2. The sampling frequency in A / D conversion is, for example, 1024 Hz.

脳波計3の詳細については、例えば、特開2010−131328号公報や特開2011−45541号公報に記載されている。脳波計3の一例としては、例えば、株式会社脳力開発研究所の「alphatec-IV」、「Brain Builder Unit」などの簡易脳波計が挙げられる。簡易脳波計による脳波は、例えば、電気的に不活性な耳朶に一方の電極32を装着し、電気的に活性な頭皮に他方の電極32を装着し、二極間の電位差の変動を導出する単極誘導法によって計測される。   Details of the electroencephalograph 3 are described in, for example, Japanese Unexamined Patent Application Publication No. 2010-131328 and Japanese Unexamined Patent Application Publication No. 2011-45541. As an example of the electroencephalograph 3, for example, a simple electroencephalograph such as “alphatec-IV” or “Brain Builder Unit” of the Brain Power Development Laboratory Co., Ltd. may be mentioned. In the electroencephalogram by a simple electroencephalograph, for example, one electrode 32 is attached to an electrically inactive earlobe, and the other electrode 32 is attached to an electrically active scalp to derive a potential difference between two electrodes. Measured by monopolar induction method.

視点追跡装置4は、本体41及びレコーダ42を含む。本体41及びレコーダ42は、一体でも良いし、別体でも良い。   The viewpoint tracking device 4 includes a main body 41 and a recorder 42. The main body 41 and the recorder 42 may be integrated or separate.

本体41は、シーンカメラ43、視点追跡センサ44、マーカーセンサ45などを含む。マーカーセンサ45は必須ではない。マーカーセンサ45を用いる場合、複数個のマーカー(不図示)も必要である。マーカーは、例えば、赤外線マーカーであり、分析対象とするエリアを定義するために設置される。   The main body 41 includes a scene camera 43, a viewpoint tracking sensor 44, a marker sensor 45, and the like. The marker sensor 45 is not essential. When the marker sensor 45 is used, a plurality of markers (not shown) are also required. The marker is an infrared marker, for example, and is installed to define an area to be analyzed.

シーンカメラ43は、被験者が見ているコンテンツや風景を撮像する。本実施の形態では、シーンカメラ43は、後述するシーン映像やスナップショット画像を撮像するカメラである。   The scene camera 43 captures content and scenery that the subject is viewing. In the present embodiment, the scene camera 43 is a camera that captures a scene video and a snapshot image described later.

視点追跡センサ44は、被験者の視点を追跡するためのセンサである。視点追跡センサ44は、例えば、赤外線の光源と受信部を備えており、赤外線角膜反射検知の原理によって、被験者の視点を追跡する。赤外線角膜反射検知の原理は公知であるため、説明を省略する。   The viewpoint tracking sensor 44 is a sensor for tracking the viewpoint of the subject. The viewpoint tracking sensor 44 includes, for example, an infrared light source and a receiver, and tracks the subject's viewpoint based on the principle of infrared corneal reflection detection. Since the principle of infrared corneal reflection detection is known, the description thereof is omitted.

マーカーセンサ45は、マーカーと通信を行い、分析エリアを検知する。マーカーを用いて分析エリアを検知する必要があるコンテンツは、例えば、雑誌広告やチラシなどの紙媒体(第3実施形態を参照)などである。但し、コンテンツが紙媒体の場合であっても、特開2011−194105号公報に開示されているように、マーカーを使用しない手法もある。   The marker sensor 45 communicates with the marker and detects the analysis area. The content that needs to detect the analysis area using the marker is, for example, a paper medium such as a magazine advertisement or a flyer (see the third embodiment). However, even if the content is a paper medium, there is a technique that does not use a marker as disclosed in Japanese Patent Application Laid-Open No. 2011-194105.

レコーダ42は、制御部46及び記憶媒体47などを含む。記憶媒体47は前述の通りである。制御部46は、シーンカメラ43によって撮像されるシーン映像やスナップショット画像、視点追跡センサ44によって追跡される被験者の視点座標データ、マーカーセンサ45によって検知される分析エリアデータなどを記憶媒体47に記憶する。   The recorder 42 includes a control unit 46, a storage medium 47, and the like. The storage medium 47 is as described above. The control unit 46 stores, in the storage medium 47, scene images and snapshot images captured by the scene camera 43, subject coordinate data of the subject tracked by the viewpoint tracking sensor 44, analysis area data detected by the marker sensor 45, and the like. To do.

視点追跡装置4の一例としては、例えば、トビー・テクノロジー社の「Tobiiグラス アイトラッカー」に代表される眼鏡タイプや、トビー・テクノロジー社の「Tobii TX300 アイトラッカー」に代表されるディスプレイタイプなどがある。TVCMやウェブサイトのように、コンテンツをディスプレイに出力できる場合、被験者は、眼鏡タイプを用いても良いし、ディスプレイタイプを用いても良い。被験者の移動を前提とする場合(第1実施形態及び第2実施形態を参照)や、紙媒体などの物体を視聴する場合、被験者は、眼鏡タイプ(第3実施形態を参照)を用いる。   As an example of the viewpoint tracking device 4, there are, for example, a spectacle type represented by “Tobii Glass Eye Tracker” of Toby Technology, and a display type represented by “Tobii TX300 Eye Tracker” of Toby Technology . When content can be output to a display, such as a TV commercial or a website, the subject may use a glasses type or a display type. When the subject is assumed to move (see the first and second embodiments) or when viewing an object such as a paper medium, the subject uses a glasses type (see the third embodiment).

図2は、分析支援装置2に記憶されるデータの一例である。分析支援装置2の記憶部22に記憶されるデータは、脳波データ50、視点座標データ55、脳波計測開始時刻及び視点計測開始時刻の時間差61(以下、「時間差61」と表記する。)、シーン映像62、スナップショット画像63などである。   FIG. 2 is an example of data stored in the analysis support apparatus 2. The data stored in the storage unit 22 of the analysis support apparatus 2 includes the electroencephalogram data 50, the viewpoint coordinate data 55, the time difference 61 between the electroencephalogram measurement start time and the viewpoint measurement start time (hereinafter referred to as “time difference 61”), the scene. A video 62, a snapshot image 63, and the like.

脳波データ50は、ヘッダ部と本体部を有する。本体部は繰り返しがあるデータである。ヘッダ部には、少なくとも脳波計測開始時刻51が含まれる。脳波計測開始時刻51は、脳波計3による計測を開始した時刻である。本体部には、少なくとも計測経過時間52及び脳波53が含まれる。計測経過時間52は、脳波計測開始時刻51からの経過時間である。脳波53は、変換器33及び増幅器34によってA/D変換されたデジタル信号である。後述するように、脳波53は、所定の時間間隔(例えば、1秒間)で潜在意識度に変換されるので、脳波データ50の本体部は、この所定の時間間隔ごとに纏められたデータ構造でも良い。   The electroencephalogram data 50 has a header portion and a main body portion. The main body is data with repetition. The header part includes at least an electroencephalogram measurement start time 51. The electroencephalogram measurement start time 51 is a time when measurement by the electroencephalograph 3 is started. The main body includes at least a measurement elapsed time 52 and an electroencephalogram 53. The measurement elapsed time 52 is an elapsed time from the electroencephalogram measurement start time 51. The electroencephalogram 53 is a digital signal that is A / D converted by the converter 33 and the amplifier 34. As will be described later, since the electroencephalogram 53 is converted into the subconsciousness level at a predetermined time interval (for example, 1 second), the main body portion of the electroencephalogram data 50 also has a data structure collected at each predetermined time interval. good.

視点座標データ55は、ヘッダ部と本体部を有する。本体部は繰り返しがあるデータである。ヘッダ部には、少なくとも視点計測開始時刻56が含まれる。視点計測開始時刻56は、視点追跡装置4による計測を開始した時刻である。本体部には、少なくとも計測経過時間57、視点x座標58及び視点y座標59が含まれる。計測経過時間57は、視点計測開始時刻56からの経過時間である。視点x座標58及び視点y座標59は、それぞれ、視点追跡センサ44によって計測される、シーン映像62又はスナップショット画像63の座標系における被験者の視点位置を示すx座標及びy座標である。視点x座標58及び視点y座標59は、視点追跡センサ44のサンプリング間隔(例えば、30フレーム/秒)で記憶される。   The viewpoint coordinate data 55 has a header part and a main body part. The main body is data with repetition. The header portion includes at least the viewpoint measurement start time 56. The viewpoint measurement start time 56 is a time when measurement by the viewpoint tracking device 4 is started. The main body includes at least a measurement elapsed time 57, a viewpoint x coordinate 58, and a viewpoint y coordinate 59. The measurement elapsed time 57 is an elapsed time from the viewpoint measurement start time 56. The viewpoint x-coordinate 58 and the viewpoint y-coordinate 59 are an x-coordinate and a y-coordinate indicating the viewpoint position of the subject in the coordinate system of the scene video 62 or the snapshot image 63, respectively, measured by the viewpoint tracking sensor 44. The viewpoint x coordinate 58 and the viewpoint y coordinate 59 are stored at the sampling interval of the viewpoint tracking sensor 44 (for example, 30 frames / second).

時間差61は、脳波計3が計測を開始した時刻と、視点追跡装置4が計測を開始した時刻との差である。時間差61の計測方法は2通りある。   The time difference 61 is the difference between the time when the electroencephalograph 3 starts measurement and the time when the viewpoint tracking device 4 starts measurement. There are two methods for measuring the time difference 61.

第1の方法では、被験者又は分析者が、脳波計3が計測を開始した時点と、視点追跡装置4が計測を開始した時点とを、それぞれ目視によって確認し、その相対時刻の時間差61を分析支援装置2に入力する。例えば、被験者又は分析者は、脳波計3と視点追跡装置4のいずれかを先にスタートさせておいて、後にスタートさせた装置の0秒目が、先にスタートさせた装置の何秒目に当たるかを、分析支援装置2に入力する。第1の方法では、前述した脳波データ50の脳波計測開始時刻51及び視点座標データ55の視点計測開始時刻56は、不要である。従って、被験者又は分析者は、脳波計3の時計と視点追跡装置4の時計を合わせる必要がない。   In the first method, a subject or an analyst visually confirms when the electroencephalograph 3 starts measurement and when the viewpoint tracking device 4 starts measurement, and analyzes the time difference 61 of the relative time. Input to support device 2. For example, the subject or the analyst starts either the electroencephalograph 3 or the viewpoint tracking device 4 first, and the 0th second of the device started later corresponds to the second of the first started device. Is input to the analysis support apparatus 2. In the first method, the above-described electroencephalogram measurement start time 51 of the electroencephalogram data 50 and the viewpoint measurement start time 56 of the viewpoint coordinate data 55 are unnecessary. Therefore, the subject or the analyst does not need to match the clock of the electroencephalograph 3 with the clock of the viewpoint tracking device 4.

第2の方法では、分析支援装置2の制御部21が、脳波データ50の脳波計測開始時刻51及び視点座標データ55の視点計測開始時刻56に基づいて時間差61を算出する。例えば、脳波データ50の脳波計測開始時刻51から視点座標データ55の視点計測開始時刻56を引いた値を時間差61とする。時間差61が正の場合、脳波計測開始時刻51が視点計測開始時刻56よりも時間差61だけ早いことを意味する。時間差61が負の場合、視点計測開始時刻56が脳波計測開始時刻51よりも時間差61だけ早いことを意味する。第2の方法では、分析支援装置2によって脳波データ50と視点座標データ55との時間差61を自動的に算出することができるので、分析者の負荷が軽減される。但し、被験者又は分析者は、脳波計3の時計と視点追跡装置4の時計を合わせる必要がある。   In the second method, the control unit 21 of the analysis support apparatus 2 calculates the time difference 61 based on the electroencephalogram measurement start time 51 of the electroencephalogram data 50 and the viewpoint measurement start time 56 of the viewpoint coordinate data 55. For example, a value obtained by subtracting the viewpoint measurement start time 56 of the viewpoint coordinate data 55 from the brain wave measurement start time 51 of the brain wave data 50 is set as the time difference 61. When the time difference 61 is positive, it means that the electroencephalogram measurement start time 51 is earlier than the viewpoint measurement start time 56 by the time difference 61. When the time difference 61 is negative, it means that the viewpoint measurement start time 56 is earlier than the electroencephalogram measurement start time 51 by the time difference 61. In the second method, the analysis support apparatus 2 can automatically calculate the time difference 61 between the electroencephalogram data 50 and the viewpoint coordinate data 55, so that the burden on the analyst is reduced. However, the subject or the analyzer needs to match the clock of the electroencephalograph 3 with the clock of the viewpoint tracking device 4.

シーン映像62は、シーンカメラ43によって撮像される動画像ファイル(例えば、aviファイル)である。シーン映像62は、視点追跡センサ44のサンプリング間隔(例えば、30フレーム/秒)と同程度のサンプリング間隔で記憶される。第1実施形態及び第2実施形態の場合、シーン映像62が必須である。   The scene video 62 is a moving image file (for example, an avi file) captured by the scene camera 43. The scene image 62 is stored at a sampling interval comparable to the sampling interval of the viewpoint tracking sensor 44 (for example, 30 frames / second). In the case of the first embodiment and the second embodiment, the scene image 62 is essential.

スナップショット画像63は、シーンカメラ43によって撮像される静止画像ファイル(例えば、jpegファイル)である。スナップショット画像63は、コンテンツ全体が撮像範囲に含まれる単一の画像ファイルである。第3実施形態の場合、スナップショット画像63が必須である。   The snapshot image 63 is a still image file (for example, a jpeg file) captured by the scene camera 43. The snapshot image 63 is a single image file in which the entire content is included in the imaging range. In the case of the third embodiment, the snapshot image 63 is essential.

図3は、市場調査システム1全体の処理を示すフローチャートである。尚、図3では時間差61の計測処理が不図示であるが、前述した第1の計測方法又は第2の計測方法によって時間差61の計測がなされて、時間差61が分析支援装置2の記憶部22に記憶されるものとする。また、図3に示す計測処理を行う前に、図4に例示するフィルタ算出処理を予め行い、潜在意識度の算出処理に用いるフィルタを求めておくことが前提である。   FIG. 3 is a flowchart showing processing of the entire market research system 1. Although the measurement process of the time difference 61 is not illustrated in FIG. 3, the time difference 61 is measured by the first measurement method or the second measurement method described above, and the time difference 61 is stored in the storage unit 22 of the analysis support apparatus 2. Shall be stored in Further, it is premised that the filter calculation process illustrated in FIG. 4 is performed in advance and the filter used for the subconsciousness calculation process is obtained before the measurement process illustrated in FIG. 3 is performed.

脳波計3は、分析支援装置2からの計測開始や計測終了の指示に基づいて、被験者の脳波を計測する(S11)。そして、脳波計3は、所定のサンプリング間隔ごとに、変換器33がAD変換を行い(S12)、増幅器34が増幅し(S13)、増幅結果を分析支援装置2に脳波データ50として送信する(S14)。   The electroencephalograph 3 measures the subject's electroencephalogram based on the measurement start and measurement end instructions from the analysis support apparatus 2 (S11). In the electroencephalograph 3, the converter 33 performs AD conversion at predetermined sampling intervals (S 12), the amplifier 34 amplifies (S 13), and transmits the amplified result to the analysis support apparatus 2 as the electroencephalogram data 50 ( S14).

視点追跡装置4の本体41は、分析者又は被験者からの計測開始や計測終了の指示に基づいて、被験者の視点を計測する(S21)。そして、視点追跡装置4のレコーダ42は、所定のサンプリング間隔ごとに、視点座標データ55を記憶媒体47に記憶する(S22)。   The main body 41 of the viewpoint tracking device 4 measures the viewpoint of the subject based on an instruction to start or end the measurement from the analyst or the subject (S21). Then, the recorder 42 of the viewpoint tracking device 4 stores the viewpoint coordinate data 55 in the storage medium 47 at predetermined sampling intervals (S22).

分析支援装置2の制御部21は、脳波計3から脳波データ50を受信し、脳波データ50を記憶部22に記憶する(S31)。そして、制御部21は、脳波データ50について高速フーリエ変換による周波数解析を行い(S32)、因子分析によって、被験者のコンテンツに対する潜在意識度の算出を行い、潜在意識度に被験者やコンテンツの情報を付加してRAM又は記憶部22に記憶する(S33)。S44の高速フーリエ変換は、例えば、窓長1秒、窓の時間シフト幅1秒で行う。S45の潜在意識度算出処理については、図4〜図8を参照しながら後述する。   The control unit 21 of the analysis support apparatus 2 receives the electroencephalogram data 50 from the electroencephalograph 3 and stores the electroencephalogram data 50 in the storage unit 22 (S31). Then, the control unit 21 performs frequency analysis by fast Fourier transform on the electroencephalogram data 50 (S32), calculates the subconscious degree of the subject's content by factor analysis, and adds the subject and content information to the subconscious degree. And it memorize | stores in RAM or the memory | storage part 22 (S33). The fast Fourier transform in S44 is performed, for example, with a window length of 1 second and a window time shift width of 1 second. The subconsciousness calculation process in S45 will be described later with reference to FIGS.

分析支援装置2の制御部21は、記憶媒体47からデータを入力し、視点座標データ55、及び、シーン映像62又はスナップショット画像63を記憶部22に記憶する(S34)。次に、制御部21は、視点座標データ55に基づいて、被験者の視点座標をシーン映像62又はスナップショット画像63に対応付ける(S35)。そして、分析支援装置2の制御部21は、時間差61に基づいて時系列を同期して、被験者の視点座標が対応付けられるシーン映像62又はスナップショット画像63と潜在意識度とを、表示部23の同一画面に表示する(S36)。制御部21は、表示部23に表示するだけでなく、プリンタに出力したり、他のコンピュータに送信したりしても良い。表示処理は、各実施形態において詳細に説明する。   The control unit 21 of the analysis support apparatus 2 inputs data from the storage medium 47 and stores the viewpoint coordinate data 55 and the scene video 62 or the snapshot image 63 in the storage unit 22 (S34). Next, the control unit 21 associates the subject's viewpoint coordinates with the scene image 62 or the snapshot image 63 based on the viewpoint coordinate data 55 (S35). Then, the control unit 21 of the analysis support apparatus 2 synchronizes the time series based on the time difference 61 to display the scene video 62 or the snapshot image 63 associated with the subject's viewpoint coordinates and the subconsciousness level on the display unit 23. Are displayed on the same screen (S36). The control unit 21 may not only display on the display unit 23 but also output it to a printer or send it to another computer. The display process will be described in detail in each embodiment.

図4は、フィルタ算出処理の一例を示すフローチャートである。尚、図3と図4では、同一の被験者を対象とする処理ではない。図4に例示する処理は、図3に示す計測処理の前処理である。以下では、潜在意識度を、特に「興味度」と捉える。   FIG. 4 is a flowchart illustrating an example of the filter calculation process. 3 and 4 are not processes for the same subject. The process illustrated in FIG. 4 is a preprocess of the measurement process illustrated in FIG. In the following, the degree of subconsciousness is regarded as “interesting level” in particular.

図4に示すように、分析支援装置2の制御部21は、興味がないと仮定したデータの各周波数の平均を算出する(S41)。興味がないと仮定したデータとは、例えば、不特定多数の被験者が映像や音楽などを視聴せずに計測された脳波データ50、或いは興味がないと明らかにわかっている映像や音楽などを視聴したときに計測された脳波データ50である。不特定多数の被験者は、任意に選択すれば良い。   As shown in FIG. 4, the control unit 21 of the analysis support apparatus 2 calculates the average of each frequency of data that is assumed to be uninteresting (S41). The data assumed to be uninterested is, for example, the EEG data 50 measured by an unspecified number of subjects without viewing video or music, or video or music that is clearly known to be uninterested. It is the electroencephalogram data 50 measured at the time. An unspecified number of subjects may be arbitrarily selected.

図5は、S41を説明する図である。図5の表70aには、複数の被験者A、B、・・・について図3のS11〜S14及びS31と同様の方法で処理された脳波データ50が例示されている。また、図5の表70bには、図3のS32と同様の方法で、表70aに示す脳波データの周波数解析を行った結果の例として、1秒ごとに1秒〜60秒、1Hzごとに1Hz〜24Hzのパワースペクトルが示されている。制御部21は、これらのパワースペクトルのデータから、周波数ごとの平均を算出する。表70bでは、1Hzの平均が「0.0」、2Hzの平均が「3.2」、・・・、24Hzの平均が「1.2」である。   FIG. 5 is a diagram for explaining S41. The table 70a in FIG. 5 illustrates the electroencephalogram data 50 processed for the plurality of subjects A, B,... In the same manner as S11 to S14 and S31 in FIG. Further, in Table 70b of FIG. 5, as an example of the result of the frequency analysis of the electroencephalogram data shown in Table 70a by the same method as S32 of FIG. 3, 1 second to 60 seconds every 1 second and 1 Hz every A power spectrum from 1 Hz to 24 Hz is shown. The control unit 21 calculates an average for each frequency from these power spectrum data. In Table 70b, the average of 1 Hz is “0.0”, the average of 2 Hz is “3.2”,..., And the average of 24 Hz is “1.2”.

図4の説明に戻る。制御部21は、興味がないと仮定したデータの平均と、フィルタ算出に使う各被験者のデータとの差分を算出する(S42)。フィルタ算出に使う各被験者のデータも、図3のS11〜S14及びS31、S32と同様の方法で周波数解析を行ったパワースペクトルのデータである。   Returning to the description of FIG. The control unit 21 calculates the difference between the average of data assumed to be uninteresting and the data of each subject used for filter calculation (S42). Each subject's data used for filter calculation is also data of a power spectrum obtained by performing frequency analysis in the same manner as S11 to S14, S31, and S32 in FIG.

図6は、S42を説明する図である。図6の表71は、S41において算出された興味がないと仮定したパワースペクトルのデータの周波数ごとの平均を示している。表72は、ある被験者(=被験者A)について、1秒ごとに1秒〜60秒、1Hzごとに1Hz〜24Hzのパワースペクトルのデータを示している。制御部21は、時間及び周波数ごとに、表71のデータと表72のデータとの差分を算出する。表73は、時間及び周波数ごとに、差分結果を示している。表73では、1Hzの1秒目が「0.0」、1Hzの2秒目が「0.0」、・・・、1Hzの60秒目が「0.0」、2Hzの1秒目が「0.2」、2Hzの2秒目が「0.8」、・・・、2Hzの60秒目が「0.8」、・・・、24Hzの1秒目が「1.8」、24Hzの2秒目が「0.2」、・・・、24Hzの60秒目が「0.8」である。   FIG. 6 is a diagram for explaining S42. Table 71 in FIG. 6 shows an average for each frequency of the data of the power spectrum that is assumed to have no interest calculated in S41. Table 72 shows power spectrum data of a subject (= subject A) from 1 second to 60 seconds per second and from 1 Hz to 24 Hz every 1 Hz. The control unit 21 calculates the difference between the data in Table 71 and the data in Table 72 for each time and frequency. Table 73 shows the difference results for each time and frequency. In Table 73, 1 second at 1 Hz is “0.0”, 2 seconds at 1 Hz is “0.0”,... 60 seconds at 1 Hz is “0.0”, 1 second at 2 Hz is “0.2”, 2 Hz second second is “0.8”,... 2 Hz 60 second is “0.8”,..., 24 Hz first second is “1.8”, The second second of 24 Hz is “0.2”,..., And the second second of 24 Hz is “0.8”.

図4の説明に戻る。制御部21は、S42において算出された差分データの相関行列、固有値を算出し、初期因子数を決定する(S43)。初期因子数は、S44において実行される因子分析に必要である。   Returning to the description of FIG. The control unit 21 calculates the correlation matrix and eigenvalue of the difference data calculated in S42, and determines the initial factor number (S43). The initial factor number is required for the factor analysis performed in S44.

図7は、S43を説明する図である。図7の表74は、S42において算出された差分データを示している。制御部21は、表74の列ベクトル同士の相関行列を算出する。表74では、1Hzの列ベクトルが(0.0,0.0,・・・,0.0)、2Hzの列ベクトルが(0.2,0.8,・・・,0.8)、・・・、60Hzの列ベクトルが(1.8,0.2,・・・,0.8)である。 FIG. 7 is a diagram for explaining S43. A table 74 in FIG. 7 shows the difference data calculated in S42. The control unit 21 calculates a correlation matrix between the column vectors in Table 74. In Table 74, the 1 Hz column vector is (0.0, 0.0,..., 0.0) t , and the 2 Hz column vector is (0.2, 0.8,..., 0.8). A column vector of t 1 ,..., 60 Hz is (1.8, 0.2,..., 0.8) t .

図7の表75は、表74の列ベクトル同士の相関行列を示している。表75では、行列成分(1,1)が「1」、行列成分(1,2)が「0.81」、・・・、行列成分(1,24)が「0.12」、行列成分(2,1)が「0.81」、行列成分(2,2)が「1」、・・・、行列成分(2,24)が「0.20」、・・・、行列成分(24,1)が「0.12」、行列成分(2,2)が「0.20」、・・・、行列成分(24,24)が「1」である。次に、制御部21は、表75の相関行列に対する固有値を算出する。   Table 75 in FIG. 7 shows a correlation matrix between the column vectors in Table 74. In Table 75, the matrix component (1,1) is “1”, the matrix component (1,2) is “0.81”,..., The matrix component (1,24) is “0.12”, and the matrix component (2,1) is “0.81”, matrix component (2,2) is “1”,..., Matrix component (2,24) is “0.20”,. , 1) is “0.12”, the matrix component (2, 2) is “0.20”,..., And the matrix component (24, 24) is “1”. Next, the control unit 21 calculates eigenvalues for the correlation matrix in Table 75.

図7の表76は、表75の相関行列に対する固有値を示している。表76では、1Hzの固有値が「13.50」、2Hzの固有値が「2.160」、・・・、24Hzの固有値が「0.008」である。次に、制御部21は、表76の固有値をグラフにプロットする(スクリープロット)。   Table 76 of FIG. 7 shows eigenvalues for the correlation matrix of Table 75. In Table 76, the eigenvalue of 1 Hz is “13.50”, the eigenvalue of 2 Hz is “2.160”,..., And the eigenvalue of 24 Hz is “0.008”. Next, the control unit 21 plots the eigenvalues in Table 76 on a graph (scree plot).

図7のグラフ77は、表76の固有値の折れ線グラフを示している。例えば、ユーザは、グラフ77から、傾きがなだらかになっている箇所を判断し、初期因子数を決定する。グラフ77では、周波数が3Hzと4Hzの間(点線78)の傾きがなだらかになっていることから、初期因子数を「3」と決定する。また、例えば、制御部21が、周波数の小さい方から、折れ線グラフの傾きと予め定めた閾値とを比較していき、閾値以下になったら、傾きがなだらかになっていると判定し、初期因子数を決定しても良い。   A graph 77 in FIG. 7 shows a line graph of the eigenvalues in Table 76. For example, the user determines a part where the slope is gentle from the graph 77 and determines the initial factor number. In the graph 77, since the slope between the frequency of 3 Hz and 4 Hz (dotted line 78) is gentle, the initial factor number is determined to be “3”. In addition, for example, the control unit 21 compares the slope of the line graph with a predetermined threshold value from the lower frequency, and determines that the slope is gentle when the frequency becomes equal to or less than the threshold value, and the initial factor. The number may be determined.

図4の説明に戻る。制御部21は、初期因子数から1ずつ因子数を増やしていき、累積寄与率が所定の割合になるまで、因子分析を実行する(S44)。所定の割合については、任意に決定して良いが、例えば、0.8である。   Returning to the description of FIG. The control unit 21 increases the factor number by 1 from the initial factor number, and executes factor analysis until the cumulative contribution rate reaches a predetermined ratio (S44). About a predetermined ratio, although you may determine arbitrarily, it is 0.8, for example.

図8は、S44を説明する図である。図8の表79は、因子分析の結果を示している。表79は、オープンソースの統計解析ソフトである「R」による算出結果である。因子負荷量は、観測変数に対して共通因子がどれくらいの強さで影響を与えているかを示している。共通性は、観測変数ごとの因子負荷量の2乗和である。共通性の値が高ければ、その観測変数が共通因子によって良く説明されていることになる。   FIG. 8 is a diagram for explaining S44. Table 79 in FIG. 8 shows the results of the factor analysis. Table 79 shows a calculation result by “R” which is an open source statistical analysis software. The factor loading indicates how much the common factor affects the observed variable. The commonality is the sum of squares of the factor load for each observation variable. A high value of commonality means that the observed variable is well explained by common factors.

表79は、例示目的の為、第2因子までの因子負荷量や累積寄与率を示している。因子数が「3」であれば、第3因子の因子負荷量や累積寄与率も算出されることになる。そして、第3因子の累積寄与率が所定の割合を超えていなければ、制御部21は、因子数を「4」にして因子分析を再度実行する。尚、S43及びS44の処理の詳細については、特開2010−131328号公報や特開2011−45541号公報にも記載されている。   Table 79 shows factor loadings and cumulative contribution rates up to the second factor for illustrative purposes. If the number of factors is “3”, the factor loading and cumulative contribution rate of the third factor are also calculated. If the cumulative contribution ratio of the third factor does not exceed the predetermined ratio, the control unit 21 sets the number of factors to “4” and executes the factor analysis again. Note that details of the processing of S43 and S44 are also described in Japanese Patent Application Laid-Open Nos. 2010-131328 and 2011-45541.

図4の説明に戻る。制御部21は、周波数ごとに、寄与率を考慮した因子負荷量を重みとしたフィルタを算出する(S45)。N人の被験者から求めたフィルタの算出式は、次式の通りである。   Returning to the description of FIG. The control unit 21 calculates a filter weighted by the factor load amount considering the contribution rate for each frequency (S45). The calculation formula of the filter calculated | required from N test subjects is as follows.

Figure 2013180076
Figure 2013180076

ここで、z:周波数、i:被験者数、j:因子数、H(z):周波数zのフィルタ(重み)、Fij(z):周波数z、被験者i、第j因子の因子負荷量、Pij:被験者i、第j因子の寄与率、である。 Here, z: frequency, i: number of subjects, j: number of factors, H (z): filter (weight) of frequency z, F ij (z): frequency z, subject i, factor loading of factor j, P ij : Subject i, contribution ratio of j-th factor.

制御部21は、このように算出されたフィルタを用いて、図3のS45において、興味度を算出する。興味度の算出式は、次式の通りである。   The control unit 21 calculates the degree of interest in S45 of FIG. 3 using the filter calculated in this way. The formula for calculating the degree of interest is as follows.

Figure 2013180076
Figure 2013180076

ここで、z:周波数、t:時刻、R(t):t秒における興味度、B(z、t):t秒における脳波の周波数zの振幅、H(z):周波数zのフィルタ、である。   Here, z: frequency, t: time, R (t): degree of interest in t seconds, B (z, t): amplitude of electroencephalogram frequency z in t seconds, H (z): filter of frequency z is there.

このように、制御部21は、脳波計3によって計測される脳波データ50に基づき、被験者の潜在意識度(興味度)を算出する。後述する第1実施形態〜第3実施形態のように、市場調査システム1は、被験者の潜在意識度(興味度)と、視点追跡装置4による視点追跡結果との両方を、分析者が分析し易いように出力する。   In this way, the control unit 21 calculates the degree of subconscious awareness (degree of interest) of the subject based on the electroencephalogram data 50 measured by the electroencephalograph 3. As in the first to third embodiments to be described later, the market research system 1 is configured such that the analyst analyzes both the subconscious degree (interest degree) of the subject and the viewpoint tracking result by the viewpoint tracking device 4. Output as easy as possible.

<第1実施形態>
図9及び図10を参照しながら、第1実施形態について説明する。
<First Embodiment>
The first embodiment will be described with reference to FIGS. 9 and 10.

図9は、第1実施形態における分析支援装置2の処理を示すフローチャートである。図9に示すように、分析支援装置2の制御部21は、所定のサンプリング間隔(例えば、1秒間)ごとに算出される興味度80から、時系列のグラフデータを生成する(S51)。   FIG. 9 is a flowchart showing the processing of the analysis support apparatus 2 in the first embodiment. As shown in FIG. 9, the control unit 21 of the analysis support apparatus 2 generates time-series graph data from the degree of interest 80 calculated every predetermined sampling interval (for example, 1 second) (S51).

制御部21は、視点座標データ55をシーン映像62に1フレームずつ対応付ける(S52)。視点座標データ55及びシーン映像62のサンプリング間隔が同一であれば、制御部21は、時系列順に1対1で対応付ける。視点座標データ55及びシーン映像62のサンプリング間隔が異なる場合、制御部21は、適切な補間処理又は間引き処理を行った後、時系列順に1対1で対応付ける。   The control unit 21 associates the viewpoint coordinate data 55 with the scene image 62 frame by frame (S52). If the sampling intervals of the viewpoint coordinate data 55 and the scene video 62 are the same, the control unit 21 associates them one by one in time series. When the sampling intervals of the viewpoint coordinate data 55 and the scene video 62 are different, the control unit 21 performs an appropriate interpolation process or thinning process, and then associates them in a one-to-one order in time series.

制御部21は、時間差61に基づいて時系列を同期して、S51において生成される興味度80の曲線データと、S52において視点座標が対応付けられるシーン映像62とを、同一画面の表示部23に表示する(S53)。尚、「同一画面」とは、表示領域(ウィンドウ)が同一である必要はなく、分析者が興味度80の曲線データとシーン映像62とを同時に視認できる表示態様であれば、表示領域(ウィンドウ)が別であっても良い。   The control unit 21 synchronizes the time series based on the time difference 61, and displays the curve data of the degree of interest 80 generated in S51 and the scene video 62 associated with the viewpoint coordinates in S52 on the same screen display unit 23. (S53). The “same screen” does not need to have the same display area (window), and any display area (window) can be used as long as the analyzer can visually recognize the curve data of the degree of interest 80 and the scene video 62 at the same time. ) May be different.

図10は、第1実施形態における表示例である。図10に示す例では、コンテンツは、被験者が移動することを前提とする動的コンテンツである。この例では、棚に複数種類のパンフレットが置かれており、例えば、被験者がどのパンフレットに興味を示すかを調査する。   FIG. 10 is a display example in the first embodiment. In the example illustrated in FIG. 10, the content is dynamic content on the assumption that the subject moves. In this example, a plurality of types of pamphlets are placed on the shelf, and for example, it is investigated which pamphlet the subject is interested in.

図10に示す計測結果表示画面81aは、興味度曲線表示領域82、シーン映像表示領域83及び計測情報表示領域84を含む。興味度曲線表示領域82は、興味度80の曲線データを表示するための領域である。シーン映像表示領域83は、シーン映像62を表示するための領域である。計測情報表示領域84は、脳波計3及び視点追跡装置4による計測結果の各種情報を表示するための領域である。   The measurement result display screen 81a shown in FIG. 10 includes an interest curve display area 82, a scene video display area 83, and a measurement information display area 84. The interest degree curve display area 82 is an area for displaying the curve data of the interest degree 80. The scene video display area 83 is an area for displaying the scene video 62. The measurement information display area 84 is an area for displaying various information of measurement results obtained by the electroencephalograph 3 and the viewpoint tracking device 4.

分析支援装置2は、興味度曲線表示領域82に対して、横軸が時間、縦軸が興味度(%)或いは興味度変化のグラフを表示する。実線にて示す興味度(%)は、S51において生成される興味度80の曲線データである。点線にて示す興味度変化は、興味度の変化量(微分値に相当)である。図10に示す例では、興味度変化は、1秒前の興味度との差を示している。タイムライン85は、シーン映像表示領域83に再生されるシーン映像62の再生位置を示す。シーン映像62が連続再生中であれば、タイムライン85は、シーン映像62の再生位置に追従して、左から右にスライドしていく。   The analysis support apparatus 2 displays a graph of time on the horizontal axis and interest level (%) or interest level change graph on the vertical axis in the interest level curve display area 82. The degree of interest (%) indicated by the solid line is curve data of the degree of interest 80 generated in S51. The interest level change indicated by a dotted line is a change amount of interest level (corresponding to a differential value). In the example shown in FIG. 10, the interest level change indicates a difference from the interest level one second ago. The timeline 85 shows the playback position of the scene video 62 played back in the scene video display area 83. If the scene video 62 is being continuously reproduced, the timeline 85 follows the playback position of the scene video 62 and slides from left to right.

分析支援装置2は、シーン映像表示領域83に対して、例えば、汎用の動画再生モジュールを埋め込む。シーン映像表示領域83は、再生、一時停止、早送り、巻き戻し、ミュート(消音)、ボリューム調整などのボタンを有する。視点マーク86aは、S52において対応付けられる視点座標データ55の位置を示す。図10では、2つの視点マーク86aが存在する。これは、視点座標データ55の位置が切り替わる様子を示している。視点座標データ55の位置が変化しないときは、視点マーク86aは1つである。   The analysis support apparatus 2 embeds, for example, a general-purpose video playback module in the scene video display area 83. The scene video display area 83 has buttons for playback, pause, fast forward, rewind, mute (silence), volume adjustment, and the like. The viewpoint mark 86a indicates the position of the viewpoint coordinate data 55 associated in S52. In FIG. 10, there are two viewpoint marks 86a. This shows how the position of the viewpoint coordinate data 55 is switched. When the position of the viewpoint coordinate data 55 does not change, there is one viewpoint mark 86a.

分析支援装置2は、計測情報表示領域84に対して、例えば、興味度(%)及び興味度変化の表示/非表示設定(Change Chart Visible)、興味度80及び興味度変化の統計値(Information)、シーン映像62の再生時間(movie length)、脳波のシフト時間(EEG data shift)などを表示する。脳波のシフト時間(EEG data shift)は、時間差61に相当する。   The analysis support apparatus 2 displays, for example, an interest level (%) and an interest level change display / non-display setting (Change Chart Visible), an interest level 80, and an interest level change statistical value (Information ), The playback time (movie length) of the scene video 62, the EEG data shift time, and the like are displayed. The electroencephalogram shift time (EEG data shift) corresponds to a time difference 61.

図10に示すように、第1実施形態では、分析支援装置2の制御部21は、被験者の視点座標をシーン映像62に1フレームずつ対応付ける。そして、制御部21は、視点座標の位置を示す視点マーク86aを重畳しながらシーン映像62を表示部23に再生するとともに、シーン映像62の再生位置を示すタイムライン85を重畳しながら潜在意識度の変動を時系列のグラフとして表示部23に描画する。   As illustrated in FIG. 10, in the first embodiment, the control unit 21 of the analysis support apparatus 2 associates the viewpoint coordinates of the subject with the scene image 62 frame by frame. Then, the control unit 21 reproduces the scene video 62 on the display unit 23 while superimposing the viewpoint mark 86a indicating the position of the viewpoint coordinates, and also superimposes the timeline 85 indicating the reproduction position of the scene video 62 while substituting the subconsciousness degree. Are plotted on the display unit 23 as a time-series graph.

第1実施形態によれば、TVCMなどの動画像や被験者が移動するなどの動的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。例えば、分析者は、潜在意識度がピークのとき、被験者が動的コンテンツのどの場面の、どの位置を視聴しているのかを容易に視認することができる。   According to the first embodiment, in the case of a moving image such as a TVCM or dynamic content such as a subject moving, the analyst can simultaneously view the subject's subconsciousness and the change in viewpoint. For example, the analyst can easily visually recognize which scene and which position of the dynamic content the subject is viewing when the subconsciousness is at the peak.

<第2実施形態>
図11及び図12を参照しながら、第2実施形態について説明する。第2実施形態では、第1実施形態の要素と同一の要素には同一の番号を付し、重複説明を省略する。
Second Embodiment
The second embodiment will be described with reference to FIGS. 11 and 12. In 2nd Embodiment, the same number is attached | subjected to the element same as the element of 1st Embodiment, and duplication description is abbreviate | omitted.

図11は、第2実施形態における分析支援装置2の処理を示すフローチャートである。図11に示すように、分析支援装置2の制御部21は、所定のサンプリング間隔(例えば、1秒間)ごとに算出される興味度80から、時系列のグラフデータを生成する(S61)。   FIG. 11 is a flowchart showing the processing of the analysis support apparatus 2 in the second embodiment. As shown in FIG. 11, the control unit 21 of the analysis support apparatus 2 generates time-series graph data from the degree of interest 80 calculated at predetermined sampling intervals (for example, 1 second) (S61).

制御部21は、視点座標データ55をシーン映像62に1フレームずつ対応付ける(S62)。更に、制御部21は、マッピングした視点座標を興味度80に応じて装飾する(S63)。装飾態様としては、興味度80に応じて、視点マークの形状、模様、色彩を変更したり、他のマークを付加したりすることが考えられる。   The control unit 21 associates the viewpoint coordinate data 55 with the scene image 62 frame by frame (S62). Furthermore, the control unit 21 decorates the mapped viewpoint coordinates according to the degree of interest 80 (S63). As the decoration mode, it is conceivable to change the shape, pattern, and color of the viewpoint mark or add another mark according to the degree of interest 80.

制御部21は、時間差61に基づいて時系列を同期して、S61において生成される興味度80の曲線データと、S63において装飾された視点マークが重畳されるシーン映像62とを、同一画面の表示部23に表示する(S64)。   Based on the time difference 61, the control unit 21 synchronizes the time series with the curve data of the degree of interest 80 generated in S61 and the scene image 62 on which the viewpoint mark decorated in S63 is superimposed on the same screen. This is displayed on the display unit 23 (S64).

図12は、第2実施形態における表示例である。図12に示す例では、図10に示す例と同様、コンテンツは、被験者が移動することを前提とする動的コンテンツである。   FIG. 12 is a display example in the second embodiment. In the example illustrated in FIG. 12, the content is dynamic content on the assumption that the subject moves as in the example illustrated in FIG. 10.

図12に示す計測結果表示画面81bは、興味度曲線表示領域82、シーン映像表示領域83及び計測情報表示領域84、装飾度合87を含む。装飾度合87は、S63における装飾の度合を示す。   The measurement result display screen 81b shown in FIG. 12 includes an interest curve display area 82, a scene video display area 83, a measurement information display area 84, and a decoration degree 87. The decoration degree 87 indicates the degree of decoration in S63.

分析支援装置2は、シーン映像表示領域83において、装飾された視点マーク86bをシーン映像62に重畳する。図12に示す例では、装飾度合87は、視点マークの模様の差異によって表現されている。つまり、視点マーク86bは、興味度80に応じて模様が変更される。尚、特許図面の制約の為、色彩を変更する例が図示できないが、例えば、サーモグラフィのように、興味度80が高い方から順に、「赤色」、「橙色」、「黄色」、「黄緑色」、「緑色」といった色彩の変更を行うと、直観的に理解し易い。   The analysis support apparatus 2 superimposes the decorated viewpoint mark 86 b on the scene video 62 in the scene video display area 83. In the example shown in FIG. 12, the decoration degree 87 is expressed by the difference in the pattern of the viewpoint mark. That is, the pattern of the viewpoint mark 86b is changed according to the degree of interest 80. Although the example of changing the color cannot be illustrated due to restrictions of the patent drawing, for example, “red”, “orange”, “yellow”, “yellowish green” in order from the one with the highest degree of interest 80, such as thermography. When the color is changed such as “” or “green”, it is easy to understand intuitively.

図12に示すように、第2実施形態では、分析支援装置2の制御部21は、被験者の視点座標をシーン映像62に1フレームずつ対応付け、更に、視点座標の位置を示す視点マーク86bの装飾度合を潜在意識度に応じて決定する。そして、制御部21は、装飾度合に応じて装飾された視点マーク86bを重畳しながらシーン映像62を再生するとともに、シーン映像62の再生位置を示すタイムライン85を重畳しながら潜在意識度の変動を時系列のグラフとして表示部23に描画する。   As shown in FIG. 12, in the second embodiment, the control unit 21 of the analysis support apparatus 2 associates the viewpoint coordinates of the subject with the scene image 62 frame by frame, and further sets the viewpoint mark 86b indicating the position of the viewpoint coordinates. The degree of decoration is determined according to the degree of subconsciousness. Then, the control unit 21 reproduces the scene video 62 while superimposing the viewpoint marks 86b decorated according to the degree of decoration, and also changes the subconsciousness degree while superimposing the timeline 85 indicating the reproduction position of the scene video 62. Is drawn on the display unit 23 as a time-series graph.

第2実施形態によれば、TVCMなどの動画像や被験者が移動するなどの動的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。特に、視点マーク86bが潜在意識度に応じて装飾されて表示されるので、分析者は、潜在意識度の変動を動的コンテンツ上で視認することができる。   According to the second embodiment, in the case of a dynamic image such as a moving image such as a TV commercial or a subject moving, the analyst can visually recognize the subject's subconsciousness and changes in the viewpoint at the same time. In particular, since the viewpoint mark 86b is decorated and displayed according to the subconsciousness level, the analyst can visually recognize the change in the subconsciousness level on the dynamic content.

<第3実施形態>
図13及び図14を参照しながら、第3実施形態について説明する。第3実施形態では、第1実施形態又は第2実施形態の要素と同一の要素には同一の番号を付し、重複説明を省略する。
<Third Embodiment>
The third embodiment will be described with reference to FIGS. 13 and 14. In 3rd Embodiment, the same number is attached | subjected to the element same as the element of 1st Embodiment or 2nd Embodiment, and duplication description is abbreviate | omitted.

図13は、第3実施形態における分析支援装置2の処理を示すフローチャートである。図13に示すように、分析支援装置2の制御部21は、視点座標データ55の座標を、スナップショット画像63の座標系に変換する(S71)。制御部21は、マーカーを使用する場合、例えば、トビー・テクノロジー社の「Tobii Studio ソフトウェア」によって実現される機能を利用して、座標変換を行う。また、制御部21は、マーカーを使用しない場合、例えば、特開2011−194105号公報に開示されている技術を利用して、座標変換を行う。両者とも公知の技術であるため、詳細な説明は省略する。尚、スナップショット画像63の座標系における被験者の視点位置を示すx座標及びy座標を用いる場合、S71における座標変換は不要である。   FIG. 13 is a flowchart showing the processing of the analysis support apparatus 2 in the third embodiment. As shown in FIG. 13, the control unit 21 of the analysis support apparatus 2 converts the coordinates of the viewpoint coordinate data 55 into the coordinate system of the snapshot image 63 (S71). When the marker is used, the control unit 21 performs coordinate conversion using a function realized by “Tobii Studio software” of Toby Technology, for example. Moreover, when not using a marker, the control part 21 performs coordinate conversion using the technique currently disclosed by Unexamined-Japanese-Patent No. 2011-194105, for example. Since both are well-known techniques, detailed description is omitted. In addition, when using the x coordinate and y coordinate which show a test subject's viewpoint position in the coordinate system of the snapshot image 63, the coordinate conversion in S71 is unnecessary.

制御部21は、スナップショット画像63の座標系に変換された視点座標をスナップショット画像63に対応付ける(S72)。つまり、単一のスナップショット画像63に対して、複数の視点座標が対応付けられる。   The control unit 21 associates the viewpoint coordinates converted into the coordinate system of the snapshot image 63 with the snapshot image 63 (S72). That is, a plurality of viewpoint coordinates are associated with a single snapshot image 63.

制御部21は、時間差61に基づいて時系列を同期して、興味度80に応じて視点座標を示す視点マークを装飾し、装飾された視点マークが重畳されたスナップショット画像63を表示部23に表示する(S73)。装飾態様は、第2実施形態と同様である。   The control unit 21 synchronizes the time series based on the time difference 61, decorates the viewpoint mark indicating the viewpoint coordinates according to the degree of interest 80, and displays the snapshot image 63 on which the decorated viewpoint mark is superimposed on the display unit 23. (S73). The decoration mode is the same as in the second embodiment.

図14は、第3実施形態における表示例である。図14に示す例では、コンテンツは、紙媒体の静的コンテンツである。この例では、家電製品のチラシであり、例えば、被験者がチラシのどの位置に興味を示すかを調査する。   FIG. 14 is a display example in the third embodiment. In the example shown in FIG. 14, the content is a static content of a paper medium. In this example, the leaflet is a home appliance, and for example, it is investigated to which position of the leaflet the subject is interested.

図14に示す計測結果表示画面81cは、スナップショット画像63、装飾度合87、複数の視点マーク86cを含む。分析支援装置2の制御部21は、視点マーク86cを装飾する際、更に、視点座標ごとに閲覧時間を算出し、閲覧時間に応じて視点マーク86cの面積度合を決定する。図14では、5つの視点マーク86cが、それぞれ異なる装飾及び面積でスナップショット画像63に重畳されている。   The measurement result display screen 81c shown in FIG. 14 includes a snapshot image 63, a decoration degree 87, and a plurality of viewpoint marks 86c. When decorating the viewpoint mark 86c, the control unit 21 of the analysis support apparatus 2 further calculates the viewing time for each viewpoint coordinate, and determines the area degree of the viewpoint mark 86c according to the viewing time. In FIG. 14, five viewpoint marks 86c are superimposed on the snapshot image 63 with different decorations and areas.

図14に示すように、第3実施形態では、分析支援装置2の制御部21は、被験者の視点座標をスナップショット画像63の座標系に座標変換して単一のスナップショット画像63に対応付け、更に、視点座標の位置を示す視点マーク86cの装飾度合を潜在意識度に応じて決定するとともに、視点座標ごとに閲覧時間を算出して視点マーク86cの面積度合を閲覧時間に応じて決定する。そして、制御部21は、視点座標ごとに、装飾度合に応じて装飾された面積度合の面積を有する視点マーク86cを重畳してスナップショット画像63を表示部23に表示する。   As shown in FIG. 14, in the third embodiment, the control unit 21 of the analysis support apparatus 2 performs coordinate conversion of the subject's viewpoint coordinates into the coordinate system of the snapshot image 63 and associates it with a single snapshot image 63. Further, the degree of decoration of the viewpoint mark 86c indicating the position of the viewpoint coordinate is determined according to the degree of subconsciousness, the viewing time is calculated for each viewpoint coordinate, and the area degree of the viewpoint mark 86c is determined according to the viewing time. . Then, the control unit 21 displays a snapshot image 63 on the display unit 23 by superimposing a viewpoint mark 86c having an area degree decorated according to the degree of decoration for each viewpoint coordinate.

第3実施形態によれば、雑誌広告やチラシなどの静的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。例えば、分析者は、被験者が静的コンテンツのどの位置をどのぐらいの時間視聴しているのかを容易に視認することができる。   According to the third embodiment, in the case of a static content such as a magazine advertisement or a flyer, the analyst can simultaneously recognize the subject's subconsciousness and the change in viewpoint. For example, the analyst can easily visually recognize which position of the static content the subject is watching for how long.

以上、添付図面を参照しながら、本発明に係る分析支援装置などの好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the analysis support apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood.

1………市場調査システム
2………分析支援装置
3………脳波計
4………視点追跡装置
50………脳波データ
55………視点座標データ
61………脳波計測開始時刻及び視点計測開始時刻の時間差
62………シーン映像
63………スナップショット画像
80………興味度
1 ... Market research system 2 ... Analysis support device 3 ... Electroencephalograph 4 ... Perspective tracking device 50 ... Electroencephalogram data 55 ... Perspective coordinate data 61 ......... EEG measurement start time and viewpoint Time difference between measurement start times 62 ......... Scene image 63 ......... Snapshot image 80 ......... Interest level

Claims (6)

コンテンツを閲覧している被験者に対する脳波計及び視点追跡装置による計測結果の分析を支援する分析支援装置であって、
前記脳波計によって計測される前記被験者の脳波データと、前記視点追跡装置によって計測される前記被験者の視点座標データと、前記視点追跡装置によって撮像される前記コンテンツに係るシーン映像又はスナップショット画像と、前記脳波計による計測開始時刻及び前記視点追跡装置による計測開始時刻の時間差とを記憶する記憶手段と、
前記脳波データに基づいて前記被験者の潜在意識度を算出する潜在意識度算出手段と、
前記視点座標データに基づいて前記被験者の視点座標を前記シーン映像又は前記スナップショット画像に対応付ける対応付け手段と、
前記時間差に基づいて時系列を同期して、前記被験者の視点座標が対応付けられる前記シーン映像又は前記スナップショット画像と、前記潜在意識度とを同一画面に表示する表示手段と、
を具備することを特徴とする分析支援装置。
An analysis support device that supports analysis of measurement results by an electroencephalograph and a viewpoint tracking device for a subject who is browsing content,
The subject's electroencephalogram data measured by the electroencephalograph, the subject's viewpoint coordinate data measured by the viewpoint tracking device, the scene video or snapshot image relating to the content imaged by the viewpoint tracking device, and Storage means for storing the time difference between the measurement start time by the electroencephalograph and the measurement start time by the viewpoint tracking device;
Subconsciousness calculating means for calculating the subconsciousness of the subject based on the electroencephalogram data;
Association means for associating the subject's viewpoint coordinates with the scene image or the snapshot image based on the viewpoint coordinate data;
Display means for synchronizing the time series based on the time difference, displaying the scene video or the snapshot image associated with the subject's viewpoint coordinates, and the subconsciousness on the same screen,
An analysis support apparatus comprising:
前記脳波データには前記脳波計による計測開始時刻、前記視点座標データには前記視点追跡装置による計測開始時刻が含まれており、
前記脳波データ及び前記視点座標データに基づいて前記時間差を算出し、前記時間差を前記記憶手段に記憶する時間差算出手段、
を更に具備することを特徴とする請求項1に記載の分析支援装置。
The electroencephalogram data includes a measurement start time by the electroencephalograph, and the viewpoint coordinate data includes a measurement start time by the viewpoint tracking device,
Calculating the time difference based on the electroencephalogram data and the viewpoint coordinate data, and storing the time difference in the storage means;
The analysis support apparatus according to claim 1, further comprising:
前記対応付け手段は、前記視点座標を前記シーン映像に1フレームずつ対応付け、
前記表示手段は、前記視点座標の位置を示す視点マークを重畳しながら前記シーン映像を再生するとともに、前記シーン映像の再生位置を示すタイムラインを重畳しながら前記潜在意識度の変動を時系列のグラフとして描画する
ことを特徴とする請求項1又は請求項2に記載の分析支援装置。
The association means associates the viewpoint coordinates with the scene image frame by frame,
The display means reproduces the scene video while superimposing a viewpoint mark indicating the position of the viewpoint coordinates, and superimposes a timeline indicating a reproduction position of the scene video while displaying a change in the subconsciousness in a time series. The analysis support apparatus according to claim 1, wherein the analysis support apparatus is drawn as a graph.
前記対応付け手段は、前記視点座標を前記シーン映像に1フレームずつ対応付け、更に、前記視点座標の位置を示す視点マークの装飾度合を前記潜在意識度に応じて決定し、
前記表示手段は、前記装飾度合に応じて装飾された前記視点マークを重畳しながら前記シーン映像を再生するとともに、前記シーン映像の再生位置を示すタイムラインを重畳しながら前記潜在意識度の変動を時系列のグラフとして描画する
ことを特徴とする請求項1又は請求項2に記載の分析支援装置。
The association means associates the viewpoint coordinates with the scene image frame by frame, and further determines the degree of decoration of a viewpoint mark indicating the position of the viewpoint coordinates according to the subconsciousness level,
The display means reproduces the scene video while superimposing the viewpoint marks decorated according to the degree of decoration, and superimposes a timeline indicating a playback position of the scene video to change the subconsciousness level. The analysis support apparatus according to claim 1, wherein the analysis support apparatus is drawn as a time-series graph.
前記対応付け手段は、前記視点座標を前記スナップショット画像の座標系に座標変換して単一の前記スナップショット画像に対応付け、更に、前記視点座標の位置を示す視点マークの装飾度合を前記潜在意識度に応じて決定するとともに、前記視点座標ごとに閲覧時間を算出して前記視点マークの面積度合を前記閲覧時間に応じて決定し、
前記表示手段は、前記視点座標ごとに、前記装飾度合に応じて装飾された前記面積度合の面積を有する前記視点マークを重畳して前記スナップショット画像を表示する
ことを特徴とする請求項1又は請求項2に記載の分析支援装置。
The association means performs coordinate conversion of the viewpoint coordinates into a coordinate system of the snapshot image and associates the viewpoint coordinates with a single snapshot image, and further determines the degree of decoration of the viewpoint mark indicating the position of the viewpoint coordinates as the latent image. While determining according to the degree of consciousness, calculating the viewing time for each viewpoint coordinate to determine the area degree of the viewpoint mark according to the viewing time,
The display means displays the snapshot image by superimposing the viewpoint mark having an area of the area degree decorated according to the degree of decoration for each viewpoint coordinate. The analysis support apparatus according to claim 2.
コンピュータを、コンテンツを閲覧している被験者に対する脳波計及び視点追跡装置による計測結果の分析を支援する分析支援装置として機能させるためのプログラムであって、
前記脳波計によって計測される前記被験者の脳波データと、前記視点追跡装置によって計測される前記被験者の視点座標データと、前記視点追跡装置によって撮像される前記コンテンツに係るシーン映像又はスナップショット画像と、前記脳波計による計測開始時刻及び前記視点追跡装置による計測開始時刻の時間差とを記憶する記憶手段と、
前記脳波データに基づいて前記被験者の潜在意識度を算出する潜在意識度算出手段と、
前記視点座標データに基づいて前記被験者の視点座標を前記シーン映像又は前記スナップショット画像に対応付ける対応付け手段と、
前記時間差に基づいて時系列を同期して、前記被験者の視点座標が対応付けられる前記シーン映像又は前記スナップショット画像と、前記潜在意識度とを同一画面に表示する表示手段
として機能させるためのプログラム。
A program for causing a computer to function as an analysis support device that supports analysis of measurement results by an electroencephalograph and a viewpoint tracking device for a subject who is browsing content,
The subject's electroencephalogram data measured by the electroencephalograph, the subject's viewpoint coordinate data measured by the viewpoint tracking device, the scene video or snapshot image relating to the content imaged by the viewpoint tracking device, and Storage means for storing the time difference between the measurement start time by the electroencephalograph and the measurement start time by the viewpoint tracking device;
Subconsciousness calculating means for calculating the subconsciousness of the subject based on the electroencephalogram data;
Association means for associating the subject's viewpoint coordinates with the scene image or the snapshot image based on the viewpoint coordinate data;
A program for functioning as a display unit that synchronizes time series based on the time difference and displays the scene video or the snapshot image associated with the subject's viewpoint coordinates and the subconscious degree on the same screen. .
JP2012046158A 2012-03-02 2012-03-02 Analysis supporting device and program Pending JP2013180076A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012046158A JP2013180076A (en) 2012-03-02 2012-03-02 Analysis supporting device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012046158A JP2013180076A (en) 2012-03-02 2012-03-02 Analysis supporting device and program

Publications (1)

Publication Number Publication Date
JP2013180076A true JP2013180076A (en) 2013-09-12

Family

ID=49271159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012046158A Pending JP2013180076A (en) 2012-03-02 2012-03-02 Analysis supporting device and program

Country Status (1)

Country Link
JP (1) JP2013180076A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015188649A (en) * 2014-03-28 2015-11-02 大日本印刷株式会社 Multiple physiological index and gaze analysis support device, program
JP2015229040A (en) * 2014-06-06 2015-12-21 株式会社電通サイエンスジャム Emotion analysis system, emotion analysis method, and emotion analysis program
JP2019512822A (en) * 2016-03-14 2019-05-16 フヴィ・コグニティヴ・ネットワーク・コーポレーション Personal emotion-based computer-readable cognitive sensory memory and cognitive insights to enhance memory and decision making
JP2019208885A (en) * 2018-06-05 2019-12-12 株式会社電通サイエンスジャム Emotion evaluation support system and emotion evaluation support method
WO2020004485A1 (en) * 2018-06-26 2020-01-02 キリンホールディングス株式会社 Evaluation device, evaluation method, program, and recording medium
JPWO2023187973A1 (en) * 2022-03-29 2023-10-05
CN121242563A (en) * 2025-12-04 2026-01-02 四川省医学科学院·四川省人民医院 A Dynamic Monitoring System and Method for Sitting Posture and Eye Distance Based on Radio Frequency Tag Identification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10164281A (en) * 1996-11-26 1998-06-19 Fuji Xerox Co Ltd Picture evaluating method and device
JP2002183212A (en) * 2000-12-19 2002-06-28 Fuji Xerox Co Ltd System and method for processing electronic document and computer-readable recording medium
WO2007135796A1 (en) * 2006-05-18 2007-11-29 Visual Interactive Sensitivity Research Institute Co., Ltd. Control device for evaluating user response to content

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10164281A (en) * 1996-11-26 1998-06-19 Fuji Xerox Co Ltd Picture evaluating method and device
JP2002183212A (en) * 2000-12-19 2002-06-28 Fuji Xerox Co Ltd System and method for processing electronic document and computer-readable recording medium
WO2007135796A1 (en) * 2006-05-18 2007-11-29 Visual Interactive Sensitivity Research Institute Co., Ltd. Control device for evaluating user response to content

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015188649A (en) * 2014-03-28 2015-11-02 大日本印刷株式会社 Multiple physiological index and gaze analysis support device, program
JP2015229040A (en) * 2014-06-06 2015-12-21 株式会社電通サイエンスジャム Emotion analysis system, emotion analysis method, and emotion analysis program
JP2019512822A (en) * 2016-03-14 2019-05-16 フヴィ・コグニティヴ・ネットワーク・コーポレーション Personal emotion-based computer-readable cognitive sensory memory and cognitive insights to enhance memory and decision making
JP2019208885A (en) * 2018-06-05 2019-12-12 株式会社電通サイエンスジャム Emotion evaluation support system and emotion evaluation support method
WO2020004485A1 (en) * 2018-06-26 2020-01-02 キリンホールディングス株式会社 Evaluation device, evaluation method, program, and recording medium
JPWO2020004485A1 (en) * 2018-06-26 2021-08-02 キリンホールディングス株式会社 Evaluation device, evaluation method, program and recording medium
JP7391332B2 (en) 2018-06-26 2023-12-05 キリンホールディングス株式会社 Evaluation device, evaluation method, program and recording medium
JPWO2023187973A1 (en) * 2022-03-29 2023-10-05
WO2023187973A1 (en) * 2022-03-29 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント Information processing device, method for controlling information processing device, and program
JP7771361B2 (en) 2022-03-29 2025-11-17 株式会社ソニー・インタラクティブエンタテインメント Information processing device, control method for information processing device, and program
CN121242563A (en) * 2025-12-04 2026-01-02 四川省医学科学院·四川省人民医院 A Dynamic Monitoring System and Method for Sitting Posture and Eye Distance Based on Radio Frequency Tag Identification

Similar Documents

Publication Publication Date Title
US11488198B2 (en) Stimulus placement system using subject neuro-response measurements
JP2013180076A (en) Analysis supporting device and program
CN111343917B (en) Method for hosting mobile access to high resolution electroencephalogram data
US8392250B2 (en) Neuro-response evaluated stimulus in virtual reality environments
US8548852B2 (en) Effective virtual reality environments for presentation of marketing materials
Khushaba et al. Choice modeling and the brain: A study on the Electroencephalogram (EEG) of preferences
KR101535432B1 (en) Contents valuation system and contents valuating method using the system
US9560984B2 (en) Analysis of controlled and automatic attention for introduction of stimulus material
KR101850101B1 (en) Method for providing advertising using eye-gaze
Ladouce et al. Capturing cognitive events embedded in the real world using mobile electroencephalography and eye-tracking
US20120191542A1 (en) Method, Apparatuses and Service for Searching
US20100249538A1 (en) Presentation measure using neurographics
US20090247895A1 (en) Apparatus, method, and computer program for adjustment of electroencephalograms distinction method
US20220067376A1 (en) Method for generating highlight image using biometric data and device therefor
EP3058873A1 (en) Device for measuring visual efficacy
JP2014021986A (en) Content provision method and display device using the same
CN103154953A (en) Measuring affective data for web-enabled applications
JP2015229040A (en) Emotion analysis system, emotion analysis method, and emotion analysis program
WO2018088187A1 (en) Information processing device, information processing method, and program
US20230043838A1 (en) Method for determining preference, and device for determining preference using same
WO2016209435A1 (en) Electrode contact quality
CN108304074A (en) Display control method and related product
CN106874672A (en) A kind of method and mobile terminal for showing EEG data
KR102186580B1 (en) Method for estimating emotion of user and apparatus therefor
US20150078728A1 (en) Audio-visual work story analysis system based on tense-relaxed emotional state measurement and analysis method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160405