JP2013180076A - Analysis supporting device and program - Google Patents
Analysis supporting device and program Download PDFInfo
- Publication number
- JP2013180076A JP2013180076A JP2012046158A JP2012046158A JP2013180076A JP 2013180076 A JP2013180076 A JP 2013180076A JP 2012046158 A JP2012046158 A JP 2012046158A JP 2012046158 A JP2012046158 A JP 2012046158A JP 2013180076 A JP2013180076 A JP 2013180076A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- subject
- degree
- electroencephalograph
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
【課題】脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力する。
【解決手段】分析支援装置の制御部は、所定のサンプリング間隔ごとに算出される興味度80から、時系列のグラフデータを生成し(S51)、視点座標データ55をシーン映像62に1フレームずつ対応付けて(S52)、時間差61に基づいて時系列を同期して、S51において生成される興味度80の曲線データと、S52において視点座標が対応付けられるシーン映像とを、同一画面の表示部に表示する(S53)。
【選択図】図9A measurement result of both an electroencephalograph and a viewpoint tracking device is output for easy analysis.
A control unit of an analysis support apparatus generates time-series graph data from an interest degree 80 calculated at a predetermined sampling interval (S51), and viewpoint coordinate data 55 is framed in a scene video 62 frame by frame. Corresponding (S52), synchronizing the time series based on the time difference 61, the curve data of the degree of interest 80 generated in S51 and the scene video to which the viewpoint coordinates are associated in S52 are displayed on the same screen. (S53).
[Selection] Figure 9
Description
本発明は、市場調査のために、脳波計及び視点追跡装置による計測結果の分析を支援する分析支援装置などに関するものである。 The present invention relates to an analysis support device that supports analysis of measurement results by an electroencephalograph and a viewpoint tracking device for market research.
従来から、脳波計や視点追跡装置を単独で用いて、TVCMや雑誌広告などの効果測定(市場調査の一例)が行われている。特許文献1には脳波計を単独で用いる例、特許文献2には視点追跡装置を単独で用いる例が開示されている。
Conventionally, effect measurement (an example of market research) such as TVCM and magazine advertisement has been performed using an electroencephalograph and a viewpoint tracking device alone.
特許文献1では、回答者(本発明の「対象者」に相当)の脳活動のモニタ結果に応じて、アンケートなどの質問に対する回答を解析することにより、回答者の正直な回答が得られる回答獲得装置が開示されている。特許文献1では、回答者Aは、脳活動に伴って発生する電場を計測する第1センサ2と脳血流の状態を検出する第2センサ3とを有するブレインハット1を頭部に被る。解析装置11は、回答者Aの脳活動を表す情報(第1センサ2で得られた脳内電場を示す信号と第2センサ3で得られた脳血流の状態を示す信号)に基づいて、アンケートの質問に対する回答者Aの回答を解析する。
According to
特許文献2では、消費者が、パンフレットなどの紙媒体を手に取り、商品を認知するまでの行動などを分析するための注視点計測装置などが開示されている。特許文献2では、マーカーレスのアイトラッキング装置2(視点追跡装置)を用いている。特許文献2に開示されている注視点計測装置1は、対象物体5の端が湾曲したり、対象物体5の内部に凹凸が生じたりして、対象物体5が変形しても、注視点7の位置を正確に自動計測することができる。
ところで、分析者は、脳波計と視点追跡装置の計測結果から、それぞれ異なる観点で分析することできる。従って、脳波計及び視点追跡装置による両方の計測結果を分析することは、有意義である。しかしながら、現状では、脳波計や視点追跡装置を単独で用いており、脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力する仕組みがない。 By the way, the analyst can analyze from different viewpoints from the measurement results of the electroencephalograph and the viewpoint tracking device. Therefore, it is meaningful to analyze the measurement results of both the electroencephalograph and the viewpoint tracking device. However, at present, an electroencephalograph or a viewpoint tracking device is used alone, and there is no mechanism for outputting both measurement results of the electroencephalograph and the viewpoint tracking device so that they can be easily analyzed.
本発明は、前述した問題点に鑑みてなされたものであり、その目的とすることは、脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力することが可能な分析支援装置などを提供することである。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an analysis support device capable of easily outputting both measurement results by an electroencephalograph and a viewpoint tracking device. And so on.
前述した目的を達成するための第1の発明は、コンテンツを閲覧している被験者に対する脳波計及び視点追跡装置による計測結果の分析を支援する分析支援装置であって、前記脳波計によって計測される前記被験者の脳波データと、前記視点追跡装置によって計測される前記被験者の視点座標データと、前記視点追跡装置によって撮像される前記コンテンツに係るシーン映像又はスナップショット画像と、前記脳波計による計測開始時刻及び前記視点追跡装置による計測開始時刻の時間差とを記憶する記憶手段と、前記脳波データに基づいて前記被験者の潜在意識度を算出する潜在意識度算出手段と、前記視点座標データに基づいて前記被験者の視点座標を前記シーン映像又は前記スナップショット画像に対応付ける対応付け手段と、前記時間差に基づいて時系列を同期して、前記被験者の視点座標が対応付けられる前記シーン映像又は前記スナップショット画像と、前記潜在意識度とを同一画面に表示する表示手段と、を具備することを特徴とする分析支援装置である。第1の発明によって、脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力することができる。 A first invention for achieving the above-described object is an analysis support device that supports analysis of measurement results by an electroencephalograph and a viewpoint tracking device for a subject who is browsing content, and is measured by the electroencephalograph The subject's brain wave data, the subject's viewpoint coordinate data measured by the viewpoint tracking device, the scene video or snapshot image related to the content imaged by the viewpoint tracking device, and the measurement start time by the electroencephalograph And a storage means for storing a time difference in measurement start time by the viewpoint tracking device, a subconscious degree calculating means for calculating a subconscious degree of the subject based on the electroencephalogram data, and the subject based on the viewpoint coordinate data An association means for associating the viewpoint coordinates with the scene image or the snapshot image, and A display means for synchronizing the time series based on the difference and displaying the scene video or the snapshot image associated with the subject's viewpoint coordinates and the subconsciousness degree on the same screen. It is a characteristic analysis support device. According to the first invention, it is possible to output both measurement results by the electroencephalograph and the viewpoint tracking device so as to be easily analyzed.
第1の発明における前記脳波データには前記脳波計による計測開始時刻、前記視点座標データには前記視点追跡装置による計測開始時刻が含まれており、前記脳波データ及び前記視点座標データに基づいて前記時間差を算出し、前記時間差を前記記憶手段に記憶する時間差算出手段、を更に具備することが望ましい。これによって、脳波データと視点座標データとの時間差を自動的に算出することができる。ひいては、分析者の負荷が軽減される。ここで潜在意識度とは、コンテンツを閲覧している被験者の意識(無意識)の働きを、脳波計によって取得される脳波データに基づいてある一定の尺度により数量化したデータである。 In the first invention, the electroencephalogram data includes a measurement start time by the electroencephalograph, and the viewpoint coordinate data includes a measurement start time by the viewpoint tracking device. Based on the electroencephalogram data and the viewpoint coordinate data, It is desirable to further comprise time difference calculation means for calculating a time difference and storing the time difference in the storage means. Thereby, the time difference between the electroencephalogram data and the viewpoint coordinate data can be automatically calculated. As a result, the load on the analyst is reduced. Here, the degree of subconsciousness is data obtained by quantifying the consciousness (unconsciousness) of the subject who is browsing the content on a certain scale based on the electroencephalogram data acquired by the electroencephalograph.
例えば、第1の発明における前記対応付け手段は、前記視点座標を前記シーン映像に1フレームずつ対応付け、前記表示手段は、前記視点座標の位置を示す視点マークを重畳しながら前記シーン映像を再生するとともに、前記シーン映像の再生位置を示すタイムラインを重畳しながら前記潜在意識度の変動を時系列のグラフとして描画する。これによって、TVCMなどの動画像や被験者が移動するなどの動的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。例えば、分析者は、潜在意識度がピークのとき、被験者が動的コンテンツのどの場面の、どの位置を視聴しているのかを容易に視認することができる。 For example, the association means in the first invention associates the viewpoint coordinates with the scene image frame by frame, and the display means reproduces the scene image while superimposing a viewpoint mark indicating the position of the viewpoint coordinates. At the same time, the subconsciousness variation is drawn as a time-series graph while superimposing a timeline indicating the playback position of the scene video. Thus, in the case of a dynamic image such as a moving image such as a TVCM or a subject moving, the analyst can view the subject's subconsciousness and the change in viewpoint at the same time. For example, the analyst can easily visually recognize which scene and which position of the dynamic content the subject is viewing when the subconsciousness is at the peak.
また、例えば、第1の発明における前記対応付け手段は、前記視点座標を前記シーン映像に1フレームずつ対応付け、更に、前記視点座標の位置を示す視点マークの装飾度合を前記潜在意識度に応じて決定し、前記表示手段は、前記装飾度合に応じて装飾された前記視点マークを重畳しながら前記シーン映像を再生するとともに、前記シーン映像の再生位置を示すタイムラインを重畳しながら前記潜在意識度の変動を時系列のグラフとして描画する。これによって、TVCMなどの動画像や被験者が移動するなどの動的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。特に、視点マークが潜在意識度に応じて装飾されて表示されるので、分析者は、潜在意識度の変動を動的コンテンツ上で視認することができる。 Further, for example, the association means in the first invention associates the viewpoint coordinates with the scene image frame by frame, and further determines the degree of decoration of the viewpoint mark indicating the position of the viewpoint coordinates according to the subconsciousness level. The display means reproduces the scene video while superimposing the viewpoint marks decorated according to the degree of decoration, and superimposes the subconsciousness while superimposing a timeline indicating the playback position of the scene video. Draw the degree variation as a time-series graph. Thus, in the case of a dynamic image such as a moving image such as a TVCM or a subject moving, the analyst can view the subject's subconsciousness and the change in viewpoint at the same time. In particular, since the viewpoint mark is decorated and displayed according to the degree of subconsciousness, the analyst can visually recognize the change in the subconscious degree on the dynamic content.
また、例えば、第1の発明における前記対応付け手段は、前記視点座標を前記スナップショット画像の座標系に座標変換して単一の前記スナップショット画像に対応付け、更に、前記視点座標の位置を示す視点マークの装飾度合を前記潜在意識度に応じて決定するとともに、前記視点座標ごとに閲覧時間を算出して前記視点マークの面積度合を前記閲覧時間に応じて決定し、前記表示手段は、前記視点座標ごとに、前記装飾度合に応じて装飾された前記面積度合の面積を有する前記視点マークを重畳して前記スナップショット画像を表示する。これによって、雑誌広告やチラシなどの静的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。例えば、分析者は、被験者が静的コンテンツのどの位置をどのぐらいの時間どのくらいの潜在意識度で視聴しているのかを容易に視認することができる。 Further, for example, the associating means according to the first aspect of the present invention performs coordinate transformation of the viewpoint coordinates into a coordinate system of the snapshot image and associates the viewpoint coordinates with a single snapshot image, and further determines the position of the viewpoint coordinates. The degree of decoration of the viewpoint mark to be displayed is determined according to the subconscious degree, the viewing time is calculated for each viewpoint coordinate, the area degree of the viewpoint mark is determined according to the browsing time, and the display means For each of the viewpoint coordinates, the snapshot image is displayed by superimposing the viewpoint mark having the area of the area degree decorated according to the decoration degree. As a result, in the case of static content such as magazine advertisements and leaflets, the analyst can simultaneously view the subject's subconsciousness and changes in viewpoint. For example, the analyst can easily visually recognize which position of the static content the subject is viewing for what time and for what degree of subconsciousness.
第2の発明は、コンピュータを、コンテンツを閲覧している被験者に対する脳波計及び視点追跡装置による計測結果の分析を支援する分析支援装置として機能させるためのプログラムであって、前記脳波計によって計測される前記被験者の脳波データと、前記視点追跡装置によって計測される前記被験者の視点座標データと、前記視点追跡装置によって撮像される前記コンテンツに係るシーン映像又はスナップショット画像と、前記脳波計による計測開始時刻及び前記視点追跡装置による計測開始時刻の時間差とを記憶する記憶手段と、前記脳波データに基づいて前記被験者の潜在意識度を算出する潜在意識度算出手段と、前記視点座標データに基づいて前記被験者の視点座標を前記シーン映像又は前記スナップショット画像に対応付ける対応付け手段と、前記時間差に基づいて時系列を同期して、前記被験者の視点座標が対応付けられる前記シーン映像又は前記スナップショット画像と、前記潜在意識度とを同一画面に表示する表示手段として機能させるためのプログラムである。第2の発明のプログラムを汎用のコンピュータにインストールすることによって、脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力することが可能な分析支援装置を得ることができる。 A second invention is a program for causing a computer to function as an analysis support device that supports analysis of measurement results by an electroencephalograph and a viewpoint tracking device for a subject who is browsing content, and is measured by the electroencephalograph The subject's brain wave data, the subject's viewpoint coordinate data measured by the viewpoint tracking device, the scene video or snapshot image related to the content imaged by the viewpoint tracking device, and the start of measurement by the electroencephalograph Storage means for storing a time and a time difference between measurement start times by the viewpoint tracking device; subconsciousness calculating means for calculating a subconsciousness degree of the subject based on the electroencephalogram data; and A pair that associates the viewpoint coordinates of the subject with the scene image or the snapshot image. Function as display means for displaying the scene video or the snapshot image associated with the subject's viewpoint coordinates and the subconscious degree on the same screen in synchronization with time series based on the time difference It is a program to make it. By installing the program of the second invention in a general-purpose computer, it is possible to obtain an analysis support apparatus capable of outputting both measurement results by the electroencephalograph and the viewpoint tracking apparatus so as to be easily analyzed.
本発明により、脳波計及び視点追跡装置による両方の計測結果を分析し易いように出力することが可能な分析支援装置などを提供することができる。 According to the present invention, it is possible to provide an analysis support apparatus and the like that can output both measurement results obtained by the electroencephalograph and the viewpoint tracking apparatus so as to be easily analyzed.
以下図面に基づいて、本発明の実施形態を詳細に説明する。最初に、用語の定義について説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, the definition of terms will be explained.
市場調査とは、商品やサービスを提供する企業や、商品やサービスの広告を制作する企業などが、市場における消費者の消費行動を調査することである。ここで、本発明の実施形態では、対象とする商品やサービスの内容は問わない。以下では、商品やサービス内容、商品の包装、及び商品やサービスの広告などを総称して、「コンテンツ」と表記する。 Market research means that companies that provide products and services, companies that produce advertisements for products and services, etc. investigate consumer behavior in the market. Here, in the embodiment of the present invention, the content of the target product or service is not questioned. Hereinafter, the product and service content, the product packaging, and the advertisement of the product and service are collectively referred to as “content”.
コンテンツの一例としては、TVCMなどの動画像、雑誌広告やチラシなどの紙媒体又は電子媒体、商品棚や本棚などの什器を含む商品配置、などが挙げられる。商品配置の場合、被験者の移動を前提としている。動画像などで、動きがあるコンテンツは、「動的コンテンツ」と表記する。紙媒体や電子媒体などで、動きがないコンテンツは、「静的コンテンツ」と表記する。後述する第1実施形態及び第2実施形態は動的コンテンツと静的コンテンツ、第3実施形態は静的コンテンツを対象としている。 Examples of the content include moving images such as TVCM, paper or electronic media such as magazine advertisements and leaflets, and product placement including furniture such as product shelves and book shelves. In the case of product placement, it is assumed that the subject is moving. Content with motion, such as moving images, is referred to as “dynamic content”. Content that does not move, such as paper or electronic media, is referred to as “static content”. A first embodiment and a second embodiment to be described later target dynamic content and static content, and a third embodiment targets static content.
潜在意識度とは、コンテンツを閲覧している被験者の意識(無意識)の働きを、脳波計によって取得される脳波データに基づいてある一定の尺度により数量化したデータである。潜在意識度は、例えば、被験者の潜在的な興味関心の度合を示す興味度や、被験者の潜在的な理解の度合を示す理解度などを示すものと考えられる場合がある。また、潜在意識度は、これらの例に限定されず、市場調査の内容に応じて捉え方は様々である。後述する第1実施形態、第2実施形態及び第3実施形態では、興味度と捉えている。 The subconsciousness level is data obtained by quantifying the consciousness (unconsciousness) of the subject who is browsing the content on a certain scale based on the electroencephalogram data acquired by the electroencephalograph. The subconsciousness level may be considered to indicate, for example, an interest level indicating the degree of the subject's potential interest and an understanding level indicating the degree of the subject's potential understanding. In addition, the degree of subconsciousness is not limited to these examples, and there are various ways of understanding depending on the contents of market research. In the first embodiment, the second embodiment, and the third embodiment described later, this is regarded as the degree of interest.
図1〜図8を参照しながら、全ての実施形態に共通する内容について説明する。 The contents common to all the embodiments will be described with reference to FIGS.
図1は、市場調査システム1の概要図である。図1に示すように、市場調査システム1は、分析支援装置2、脳波計3、及び視点追跡装置4などを含む。市場調査システム1は、コンテンツを閲覧している被験者の脳波データ及び視点座標データを計測し、分析者が計測結果を分析することを支援する。
FIG. 1 is a schematic diagram of a
図1に示す例では、分析支援装置2及び脳波計3は、有線ケーブルを介してデータの送受信を行う。分析支援装置2及び脳波計3が無線通信装置を備えている場合、分析支援装置2及び脳波計3は、無線波を介してデータの送受信を行っても良い。
In the example illustrated in FIG. 1, the
図1に示す例では、分析支援装置2及び視点追跡装置4は、記憶媒体47を介してデータの送受信を行う。記憶媒体47の一例としては、例えば、SDメモリカードに代表される記憶カードや、CD−R(Compact Disk−Recordable)に代表される記憶ディスクや、USB(Universal Serial Bus)メモリなどに代表される端子付補助記憶装置などがある。分析支援装置2及び脳波計3が有線ケーブルのI/O(Input/Output interface)を備えている場合、分析支援装置2及び脳波計3は、有線ケーブルを介してデータの送受信を行っても良い。分析支援装置2及び脳波計3が無線通信装置を備えている場合、分析支援装置2及び脳波計3は、無線波を介してデータの送受信を行っても良い。
In the example illustrated in FIG. 1, the
分析支援装置2は、コンテンツを閲覧している被験者に対する脳波計3及び視点追跡装置4による計測結果の分析を支援する。分析支援装置2は、コンピュータである。コンピュータの一例としては、デスクトップ型PC(Personal Computer)、ノート型PC、スマートフォン、タブレット型端末、携帯電話端末、ゲーム端末などがある。以下では、分析支援装置2は、デスクトップ型PCやノート型PCなどの汎用コンピュータとして説明する。
The
分析支援装置2は、制御部21、記憶部22、表示部23、入力部24、I/O25などを備える。
The
制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などから構成される。CPUは、記憶部22、ROM、記憶媒体などに格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、各装置を駆動制御し、分析支援装置2が行う後述する処理を実現する。ROMは、不揮発性メモリであり、分析支援装置2のブートプログラムやBIOSなどのプログラム、データなどを恒久的に保持している。RAMは、揮発性メモリであり、記憶部22、ROM、記憶媒体などからロードしたプログラム、データなどを一時的に保持するとともに、制御部21が各種処理を行う為に使用するワークエリアを備える。
The control unit 21 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU calls a program stored in the storage unit 22, ROM, storage medium, or the like to a work memory area on the RAM, executes it, controls the drive of each device, and realizes the processing described later performed by the
記憶部22は、例えば、HDD(Hard Disk Drive)であり、制御部21が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)などが格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理を分析支援装置2に実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部21により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。
The storage unit 22 is an HDD (Hard Disk Drive), for example, and stores a program executed by the control unit 21, data necessary for program execution, an OS (Operating System), and the like. As for the program, a control program corresponding to the OS and an application program for causing the
表示部23は、液晶パネルなどのディスプレイ装置、ディスプレイ装置と連携して分析支援装置2のビデオ機能を実現するための論理回路など(ビデオアダプタなど)を有する。入力部24は、データの入力を行い、例えば、キーボード、マウスなどのポインティングデバイス、テンキーなどの入力装置を有する。入力部24を介して、分析支援装置2に対して、操作指示、動作指示、データ入力などを行うことができる。尚、表示部23及び入力部24は、タッチパネルディスプレイのように、一体となっていても良い。
The display unit 23 includes a display device such as a liquid crystal panel and a logic circuit (such as a video adapter) for realizing the video function of the
I/O25は、分析支援装置2に周辺機器(例えば、脳波計3、記憶媒体47などの外部記憶装置、プリンタ(不図示)、ネットワーク機器(不図示))を接続するためのポートや送受信機である。分析支援装置2は、I/O25を介して周辺機器とのデータの送受信を行う。I/O25の一例としては、USB、IEEE1394、RS−232Cなどのポートや、記憶媒体47を読み書きするためのドライブ装置や、無線LAN機器や、Bluetooth(登録商標)送受信機などがある。周辺機器との接続形態は、有線、無線を問わない。
The I /
脳波計3は、ヘッドバンド31、電極32、変換器33、増幅器34などを備える。脳波計3は、被験者の頭部、詳細には国際10−20法におけるFp1に当たる箇所(左前部前頭葉)に、ヘッドバンド31によって固定された電極32が当接する構造となっている。Fp1は、一般に感情や情動に関する反応を計測できることが知られている。変換器33は、電極32から出力されるアナログ信号をデジタル信号に変換する。増幅器34は、変換器33から出力されるデジタル信号を増幅し、分析支援装置2のI/O25に出力する。A/D変換におけるサンプリング周波数は例えば1024Hzである。
The
脳波計3の詳細については、例えば、特開2010−131328号公報や特開2011−45541号公報に記載されている。脳波計3の一例としては、例えば、株式会社脳力開発研究所の「alphatec-IV」、「Brain Builder Unit」などの簡易脳波計が挙げられる。簡易脳波計による脳波は、例えば、電気的に不活性な耳朶に一方の電極32を装着し、電気的に活性な頭皮に他方の電極32を装着し、二極間の電位差の変動を導出する単極誘導法によって計測される。
Details of the
視点追跡装置4は、本体41及びレコーダ42を含む。本体41及びレコーダ42は、一体でも良いし、別体でも良い。
The
本体41は、シーンカメラ43、視点追跡センサ44、マーカーセンサ45などを含む。マーカーセンサ45は必須ではない。マーカーセンサ45を用いる場合、複数個のマーカー(不図示)も必要である。マーカーは、例えば、赤外線マーカーであり、分析対象とするエリアを定義するために設置される。
The
シーンカメラ43は、被験者が見ているコンテンツや風景を撮像する。本実施の形態では、シーンカメラ43は、後述するシーン映像やスナップショット画像を撮像するカメラである。
The
視点追跡センサ44は、被験者の視点を追跡するためのセンサである。視点追跡センサ44は、例えば、赤外線の光源と受信部を備えており、赤外線角膜反射検知の原理によって、被験者の視点を追跡する。赤外線角膜反射検知の原理は公知であるため、説明を省略する。
The
マーカーセンサ45は、マーカーと通信を行い、分析エリアを検知する。マーカーを用いて分析エリアを検知する必要があるコンテンツは、例えば、雑誌広告やチラシなどの紙媒体(第3実施形態を参照)などである。但し、コンテンツが紙媒体の場合であっても、特開2011−194105号公報に開示されているように、マーカーを使用しない手法もある。 The marker sensor 45 communicates with the marker and detects the analysis area. The content that needs to detect the analysis area using the marker is, for example, a paper medium such as a magazine advertisement or a flyer (see the third embodiment). However, even if the content is a paper medium, there is a technique that does not use a marker as disclosed in Japanese Patent Application Laid-Open No. 2011-194105.
レコーダ42は、制御部46及び記憶媒体47などを含む。記憶媒体47は前述の通りである。制御部46は、シーンカメラ43によって撮像されるシーン映像やスナップショット画像、視点追跡センサ44によって追跡される被験者の視点座標データ、マーカーセンサ45によって検知される分析エリアデータなどを記憶媒体47に記憶する。
The recorder 42 includes a control unit 46, a storage medium 47, and the like. The storage medium 47 is as described above. The control unit 46 stores, in the storage medium 47, scene images and snapshot images captured by the
視点追跡装置4の一例としては、例えば、トビー・テクノロジー社の「Tobiiグラス アイトラッカー」に代表される眼鏡タイプや、トビー・テクノロジー社の「Tobii TX300 アイトラッカー」に代表されるディスプレイタイプなどがある。TVCMやウェブサイトのように、コンテンツをディスプレイに出力できる場合、被験者は、眼鏡タイプを用いても良いし、ディスプレイタイプを用いても良い。被験者の移動を前提とする場合(第1実施形態及び第2実施形態を参照)や、紙媒体などの物体を視聴する場合、被験者は、眼鏡タイプ(第3実施形態を参照)を用いる。
As an example of the
図2は、分析支援装置2に記憶されるデータの一例である。分析支援装置2の記憶部22に記憶されるデータは、脳波データ50、視点座標データ55、脳波計測開始時刻及び視点計測開始時刻の時間差61(以下、「時間差61」と表記する。)、シーン映像62、スナップショット画像63などである。
FIG. 2 is an example of data stored in the
脳波データ50は、ヘッダ部と本体部を有する。本体部は繰り返しがあるデータである。ヘッダ部には、少なくとも脳波計測開始時刻51が含まれる。脳波計測開始時刻51は、脳波計3による計測を開始した時刻である。本体部には、少なくとも計測経過時間52及び脳波53が含まれる。計測経過時間52は、脳波計測開始時刻51からの経過時間である。脳波53は、変換器33及び増幅器34によってA/D変換されたデジタル信号である。後述するように、脳波53は、所定の時間間隔(例えば、1秒間)で潜在意識度に変換されるので、脳波データ50の本体部は、この所定の時間間隔ごとに纏められたデータ構造でも良い。
The electroencephalogram data 50 has a header portion and a main body portion. The main body is data with repetition. The header part includes at least an electroencephalogram measurement start
視点座標データ55は、ヘッダ部と本体部を有する。本体部は繰り返しがあるデータである。ヘッダ部には、少なくとも視点計測開始時刻56が含まれる。視点計測開始時刻56は、視点追跡装置4による計測を開始した時刻である。本体部には、少なくとも計測経過時間57、視点x座標58及び視点y座標59が含まれる。計測経過時間57は、視点計測開始時刻56からの経過時間である。視点x座標58及び視点y座標59は、それぞれ、視点追跡センサ44によって計測される、シーン映像62又はスナップショット画像63の座標系における被験者の視点位置を示すx座標及びy座標である。視点x座標58及び視点y座標59は、視点追跡センサ44のサンプリング間隔(例えば、30フレーム/秒)で記憶される。
The viewpoint coordinate
時間差61は、脳波計3が計測を開始した時刻と、視点追跡装置4が計測を開始した時刻との差である。時間差61の計測方法は2通りある。
The
第1の方法では、被験者又は分析者が、脳波計3が計測を開始した時点と、視点追跡装置4が計測を開始した時点とを、それぞれ目視によって確認し、その相対時刻の時間差61を分析支援装置2に入力する。例えば、被験者又は分析者は、脳波計3と視点追跡装置4のいずれかを先にスタートさせておいて、後にスタートさせた装置の0秒目が、先にスタートさせた装置の何秒目に当たるかを、分析支援装置2に入力する。第1の方法では、前述した脳波データ50の脳波計測開始時刻51及び視点座標データ55の視点計測開始時刻56は、不要である。従って、被験者又は分析者は、脳波計3の時計と視点追跡装置4の時計を合わせる必要がない。
In the first method, a subject or an analyst visually confirms when the
第2の方法では、分析支援装置2の制御部21が、脳波データ50の脳波計測開始時刻51及び視点座標データ55の視点計測開始時刻56に基づいて時間差61を算出する。例えば、脳波データ50の脳波計測開始時刻51から視点座標データ55の視点計測開始時刻56を引いた値を時間差61とする。時間差61が正の場合、脳波計測開始時刻51が視点計測開始時刻56よりも時間差61だけ早いことを意味する。時間差61が負の場合、視点計測開始時刻56が脳波計測開始時刻51よりも時間差61だけ早いことを意味する。第2の方法では、分析支援装置2によって脳波データ50と視点座標データ55との時間差61を自動的に算出することができるので、分析者の負荷が軽減される。但し、被験者又は分析者は、脳波計3の時計と視点追跡装置4の時計を合わせる必要がある。
In the second method, the control unit 21 of the
シーン映像62は、シーンカメラ43によって撮像される動画像ファイル(例えば、aviファイル)である。シーン映像62は、視点追跡センサ44のサンプリング間隔(例えば、30フレーム/秒)と同程度のサンプリング間隔で記憶される。第1実施形態及び第2実施形態の場合、シーン映像62が必須である。
The
スナップショット画像63は、シーンカメラ43によって撮像される静止画像ファイル(例えば、jpegファイル)である。スナップショット画像63は、コンテンツ全体が撮像範囲に含まれる単一の画像ファイルである。第3実施形態の場合、スナップショット画像63が必須である。
The
図3は、市場調査システム1全体の処理を示すフローチャートである。尚、図3では時間差61の計測処理が不図示であるが、前述した第1の計測方法又は第2の計測方法によって時間差61の計測がなされて、時間差61が分析支援装置2の記憶部22に記憶されるものとする。また、図3に示す計測処理を行う前に、図4に例示するフィルタ算出処理を予め行い、潜在意識度の算出処理に用いるフィルタを求めておくことが前提である。
FIG. 3 is a flowchart showing processing of the entire
脳波計3は、分析支援装置2からの計測開始や計測終了の指示に基づいて、被験者の脳波を計測する(S11)。そして、脳波計3は、所定のサンプリング間隔ごとに、変換器33がAD変換を行い(S12)、増幅器34が増幅し(S13)、増幅結果を分析支援装置2に脳波データ50として送信する(S14)。
The
視点追跡装置4の本体41は、分析者又は被験者からの計測開始や計測終了の指示に基づいて、被験者の視点を計測する(S21)。そして、視点追跡装置4のレコーダ42は、所定のサンプリング間隔ごとに、視点座標データ55を記憶媒体47に記憶する(S22)。
The
分析支援装置2の制御部21は、脳波計3から脳波データ50を受信し、脳波データ50を記憶部22に記憶する(S31)。そして、制御部21は、脳波データ50について高速フーリエ変換による周波数解析を行い(S32)、因子分析によって、被験者のコンテンツに対する潜在意識度の算出を行い、潜在意識度に被験者やコンテンツの情報を付加してRAM又は記憶部22に記憶する(S33)。S44の高速フーリエ変換は、例えば、窓長1秒、窓の時間シフト幅1秒で行う。S45の潜在意識度算出処理については、図4〜図8を参照しながら後述する。
The control unit 21 of the
分析支援装置2の制御部21は、記憶媒体47からデータを入力し、視点座標データ55、及び、シーン映像62又はスナップショット画像63を記憶部22に記憶する(S34)。次に、制御部21は、視点座標データ55に基づいて、被験者の視点座標をシーン映像62又はスナップショット画像63に対応付ける(S35)。そして、分析支援装置2の制御部21は、時間差61に基づいて時系列を同期して、被験者の視点座標が対応付けられるシーン映像62又はスナップショット画像63と潜在意識度とを、表示部23の同一画面に表示する(S36)。制御部21は、表示部23に表示するだけでなく、プリンタに出力したり、他のコンピュータに送信したりしても良い。表示処理は、各実施形態において詳細に説明する。
The control unit 21 of the
図4は、フィルタ算出処理の一例を示すフローチャートである。尚、図3と図4では、同一の被験者を対象とする処理ではない。図4に例示する処理は、図3に示す計測処理の前処理である。以下では、潜在意識度を、特に「興味度」と捉える。 FIG. 4 is a flowchart illustrating an example of the filter calculation process. 3 and 4 are not processes for the same subject. The process illustrated in FIG. 4 is a preprocess of the measurement process illustrated in FIG. In the following, the degree of subconsciousness is regarded as “interesting level” in particular.
図4に示すように、分析支援装置2の制御部21は、興味がないと仮定したデータの各周波数の平均を算出する(S41)。興味がないと仮定したデータとは、例えば、不特定多数の被験者が映像や音楽などを視聴せずに計測された脳波データ50、或いは興味がないと明らかにわかっている映像や音楽などを視聴したときに計測された脳波データ50である。不特定多数の被験者は、任意に選択すれば良い。
As shown in FIG. 4, the control unit 21 of the
図5は、S41を説明する図である。図5の表70aには、複数の被験者A、B、・・・について図3のS11〜S14及びS31と同様の方法で処理された脳波データ50が例示されている。また、図5の表70bには、図3のS32と同様の方法で、表70aに示す脳波データの周波数解析を行った結果の例として、1秒ごとに1秒〜60秒、1Hzごとに1Hz〜24Hzのパワースペクトルが示されている。制御部21は、これらのパワースペクトルのデータから、周波数ごとの平均を算出する。表70bでは、1Hzの平均が「0.0」、2Hzの平均が「3.2」、・・・、24Hzの平均が「1.2」である。 FIG. 5 is a diagram for explaining S41. The table 70a in FIG. 5 illustrates the electroencephalogram data 50 processed for the plurality of subjects A, B,... In the same manner as S11 to S14 and S31 in FIG. Further, in Table 70b of FIG. 5, as an example of the result of the frequency analysis of the electroencephalogram data shown in Table 70a by the same method as S32 of FIG. 3, 1 second to 60 seconds every 1 second and 1 Hz every A power spectrum from 1 Hz to 24 Hz is shown. The control unit 21 calculates an average for each frequency from these power spectrum data. In Table 70b, the average of 1 Hz is “0.0”, the average of 2 Hz is “3.2”,..., And the average of 24 Hz is “1.2”.
図4の説明に戻る。制御部21は、興味がないと仮定したデータの平均と、フィルタ算出に使う各被験者のデータとの差分を算出する(S42)。フィルタ算出に使う各被験者のデータも、図3のS11〜S14及びS31、S32と同様の方法で周波数解析を行ったパワースペクトルのデータである。 Returning to the description of FIG. The control unit 21 calculates the difference between the average of data assumed to be uninteresting and the data of each subject used for filter calculation (S42). Each subject's data used for filter calculation is also data of a power spectrum obtained by performing frequency analysis in the same manner as S11 to S14, S31, and S32 in FIG.
図6は、S42を説明する図である。図6の表71は、S41において算出された興味がないと仮定したパワースペクトルのデータの周波数ごとの平均を示している。表72は、ある被験者(=被験者A)について、1秒ごとに1秒〜60秒、1Hzごとに1Hz〜24Hzのパワースペクトルのデータを示している。制御部21は、時間及び周波数ごとに、表71のデータと表72のデータとの差分を算出する。表73は、時間及び周波数ごとに、差分結果を示している。表73では、1Hzの1秒目が「0.0」、1Hzの2秒目が「0.0」、・・・、1Hzの60秒目が「0.0」、2Hzの1秒目が「0.2」、2Hzの2秒目が「0.8」、・・・、2Hzの60秒目が「0.8」、・・・、24Hzの1秒目が「1.8」、24Hzの2秒目が「0.2」、・・・、24Hzの60秒目が「0.8」である。 FIG. 6 is a diagram for explaining S42. Table 71 in FIG. 6 shows an average for each frequency of the data of the power spectrum that is assumed to have no interest calculated in S41. Table 72 shows power spectrum data of a subject (= subject A) from 1 second to 60 seconds per second and from 1 Hz to 24 Hz every 1 Hz. The control unit 21 calculates the difference between the data in Table 71 and the data in Table 72 for each time and frequency. Table 73 shows the difference results for each time and frequency. In Table 73, 1 second at 1 Hz is “0.0”, 2 seconds at 1 Hz is “0.0”,... 60 seconds at 1 Hz is “0.0”, 1 second at 2 Hz is “0.2”, 2 Hz second second is “0.8”,... 2 Hz 60 second is “0.8”,..., 24 Hz first second is “1.8”, The second second of 24 Hz is “0.2”,..., And the second second of 24 Hz is “0.8”.
図4の説明に戻る。制御部21は、S42において算出された差分データの相関行列、固有値を算出し、初期因子数を決定する(S43)。初期因子数は、S44において実行される因子分析に必要である。 Returning to the description of FIG. The control unit 21 calculates the correlation matrix and eigenvalue of the difference data calculated in S42, and determines the initial factor number (S43). The initial factor number is required for the factor analysis performed in S44.
図7は、S43を説明する図である。図7の表74は、S42において算出された差分データを示している。制御部21は、表74の列ベクトル同士の相関行列を算出する。表74では、1Hzの列ベクトルが(0.0,0.0,・・・,0.0)t、2Hzの列ベクトルが(0.2,0.8,・・・,0.8)t、・・・、60Hzの列ベクトルが(1.8,0.2,・・・,0.8)tである。 FIG. 7 is a diagram for explaining S43. A table 74 in FIG. 7 shows the difference data calculated in S42. The control unit 21 calculates a correlation matrix between the column vectors in Table 74. In Table 74, the 1 Hz column vector is (0.0, 0.0,..., 0.0) t , and the 2 Hz column vector is (0.2, 0.8,..., 0.8). A column vector of t 1 ,..., 60 Hz is (1.8, 0.2,..., 0.8) t .
図7の表75は、表74の列ベクトル同士の相関行列を示している。表75では、行列成分(1,1)が「1」、行列成分(1,2)が「0.81」、・・・、行列成分(1,24)が「0.12」、行列成分(2,1)が「0.81」、行列成分(2,2)が「1」、・・・、行列成分(2,24)が「0.20」、・・・、行列成分(24,1)が「0.12」、行列成分(2,2)が「0.20」、・・・、行列成分(24,24)が「1」である。次に、制御部21は、表75の相関行列に対する固有値を算出する。 Table 75 in FIG. 7 shows a correlation matrix between the column vectors in Table 74. In Table 75, the matrix component (1,1) is “1”, the matrix component (1,2) is “0.81”,..., The matrix component (1,24) is “0.12”, and the matrix component (2,1) is “0.81”, matrix component (2,2) is “1”,..., Matrix component (2,24) is “0.20”,. , 1) is “0.12”, the matrix component (2, 2) is “0.20”,..., And the matrix component (24, 24) is “1”. Next, the control unit 21 calculates eigenvalues for the correlation matrix in Table 75.
図7の表76は、表75の相関行列に対する固有値を示している。表76では、1Hzの固有値が「13.50」、2Hzの固有値が「2.160」、・・・、24Hzの固有値が「0.008」である。次に、制御部21は、表76の固有値をグラフにプロットする(スクリープロット)。 Table 76 of FIG. 7 shows eigenvalues for the correlation matrix of Table 75. In Table 76, the eigenvalue of 1 Hz is “13.50”, the eigenvalue of 2 Hz is “2.160”,..., And the eigenvalue of 24 Hz is “0.008”. Next, the control unit 21 plots the eigenvalues in Table 76 on a graph (scree plot).
図7のグラフ77は、表76の固有値の折れ線グラフを示している。例えば、ユーザは、グラフ77から、傾きがなだらかになっている箇所を判断し、初期因子数を決定する。グラフ77では、周波数が3Hzと4Hzの間(点線78)の傾きがなだらかになっていることから、初期因子数を「3」と決定する。また、例えば、制御部21が、周波数の小さい方から、折れ線グラフの傾きと予め定めた閾値とを比較していき、閾値以下になったら、傾きがなだらかになっていると判定し、初期因子数を決定しても良い。
A
図4の説明に戻る。制御部21は、初期因子数から1ずつ因子数を増やしていき、累積寄与率が所定の割合になるまで、因子分析を実行する(S44)。所定の割合については、任意に決定して良いが、例えば、0.8である。 Returning to the description of FIG. The control unit 21 increases the factor number by 1 from the initial factor number, and executes factor analysis until the cumulative contribution rate reaches a predetermined ratio (S44). About a predetermined ratio, although you may determine arbitrarily, it is 0.8, for example.
図8は、S44を説明する図である。図8の表79は、因子分析の結果を示している。表79は、オープンソースの統計解析ソフトである「R」による算出結果である。因子負荷量は、観測変数に対して共通因子がどれくらいの強さで影響を与えているかを示している。共通性は、観測変数ごとの因子負荷量の2乗和である。共通性の値が高ければ、その観測変数が共通因子によって良く説明されていることになる。 FIG. 8 is a diagram for explaining S44. Table 79 in FIG. 8 shows the results of the factor analysis. Table 79 shows a calculation result by “R” which is an open source statistical analysis software. The factor loading indicates how much the common factor affects the observed variable. The commonality is the sum of squares of the factor load for each observation variable. A high value of commonality means that the observed variable is well explained by common factors.
表79は、例示目的の為、第2因子までの因子負荷量や累積寄与率を示している。因子数が「3」であれば、第3因子の因子負荷量や累積寄与率も算出されることになる。そして、第3因子の累積寄与率が所定の割合を超えていなければ、制御部21は、因子数を「4」にして因子分析を再度実行する。尚、S43及びS44の処理の詳細については、特開2010−131328号公報や特開2011−45541号公報にも記載されている。 Table 79 shows factor loadings and cumulative contribution rates up to the second factor for illustrative purposes. If the number of factors is “3”, the factor loading and cumulative contribution rate of the third factor are also calculated. If the cumulative contribution ratio of the third factor does not exceed the predetermined ratio, the control unit 21 sets the number of factors to “4” and executes the factor analysis again. Note that details of the processing of S43 and S44 are also described in Japanese Patent Application Laid-Open Nos. 2010-131328 and 2011-45541.
図4の説明に戻る。制御部21は、周波数ごとに、寄与率を考慮した因子負荷量を重みとしたフィルタを算出する(S45)。N人の被験者から求めたフィルタの算出式は、次式の通りである。 Returning to the description of FIG. The control unit 21 calculates a filter weighted by the factor load amount considering the contribution rate for each frequency (S45). The calculation formula of the filter calculated | required from N test subjects is as follows.
ここで、z:周波数、i:被験者数、j:因子数、H(z):周波数zのフィルタ(重み)、Fij(z):周波数z、被験者i、第j因子の因子負荷量、Pij:被験者i、第j因子の寄与率、である。 Here, z: frequency, i: number of subjects, j: number of factors, H (z): filter (weight) of frequency z, F ij (z): frequency z, subject i, factor loading of factor j, P ij : Subject i, contribution ratio of j-th factor.
制御部21は、このように算出されたフィルタを用いて、図3のS45において、興味度を算出する。興味度の算出式は、次式の通りである。 The control unit 21 calculates the degree of interest in S45 of FIG. 3 using the filter calculated in this way. The formula for calculating the degree of interest is as follows.
ここで、z:周波数、t:時刻、R(t):t秒における興味度、B(z、t):t秒における脳波の周波数zの振幅、H(z):周波数zのフィルタ、である。 Here, z: frequency, t: time, R (t): degree of interest in t seconds, B (z, t): amplitude of electroencephalogram frequency z in t seconds, H (z): filter of frequency z is there.
このように、制御部21は、脳波計3によって計測される脳波データ50に基づき、被験者の潜在意識度(興味度)を算出する。後述する第1実施形態〜第3実施形態のように、市場調査システム1は、被験者の潜在意識度(興味度)と、視点追跡装置4による視点追跡結果との両方を、分析者が分析し易いように出力する。
In this way, the control unit 21 calculates the degree of subconscious awareness (degree of interest) of the subject based on the electroencephalogram data 50 measured by the
<第1実施形態>
図9及び図10を参照しながら、第1実施形態について説明する。
<First Embodiment>
The first embodiment will be described with reference to FIGS. 9 and 10.
図9は、第1実施形態における分析支援装置2の処理を示すフローチャートである。図9に示すように、分析支援装置2の制御部21は、所定のサンプリング間隔(例えば、1秒間)ごとに算出される興味度80から、時系列のグラフデータを生成する(S51)。
FIG. 9 is a flowchart showing the processing of the
制御部21は、視点座標データ55をシーン映像62に1フレームずつ対応付ける(S52)。視点座標データ55及びシーン映像62のサンプリング間隔が同一であれば、制御部21は、時系列順に1対1で対応付ける。視点座標データ55及びシーン映像62のサンプリング間隔が異なる場合、制御部21は、適切な補間処理又は間引き処理を行った後、時系列順に1対1で対応付ける。
The control unit 21 associates the viewpoint coordinate
制御部21は、時間差61に基づいて時系列を同期して、S51において生成される興味度80の曲線データと、S52において視点座標が対応付けられるシーン映像62とを、同一画面の表示部23に表示する(S53)。尚、「同一画面」とは、表示領域(ウィンドウ)が同一である必要はなく、分析者が興味度80の曲線データとシーン映像62とを同時に視認できる表示態様であれば、表示領域(ウィンドウ)が別であっても良い。
The control unit 21 synchronizes the time series based on the
図10は、第1実施形態における表示例である。図10に示す例では、コンテンツは、被験者が移動することを前提とする動的コンテンツである。この例では、棚に複数種類のパンフレットが置かれており、例えば、被験者がどのパンフレットに興味を示すかを調査する。 FIG. 10 is a display example in the first embodiment. In the example illustrated in FIG. 10, the content is dynamic content on the assumption that the subject moves. In this example, a plurality of types of pamphlets are placed on the shelf, and for example, it is investigated which pamphlet the subject is interested in.
図10に示す計測結果表示画面81aは、興味度曲線表示領域82、シーン映像表示領域83及び計測情報表示領域84を含む。興味度曲線表示領域82は、興味度80の曲線データを表示するための領域である。シーン映像表示領域83は、シーン映像62を表示するための領域である。計測情報表示領域84は、脳波計3及び視点追跡装置4による計測結果の各種情報を表示するための領域である。
The measurement result display screen 81a shown in FIG. 10 includes an interest curve display area 82, a scene video display area 83, and a measurement information display area 84. The interest degree curve display area 82 is an area for displaying the curve data of the
分析支援装置2は、興味度曲線表示領域82に対して、横軸が時間、縦軸が興味度(%)或いは興味度変化のグラフを表示する。実線にて示す興味度(%)は、S51において生成される興味度80の曲線データである。点線にて示す興味度変化は、興味度の変化量(微分値に相当)である。図10に示す例では、興味度変化は、1秒前の興味度との差を示している。タイムライン85は、シーン映像表示領域83に再生されるシーン映像62の再生位置を示す。シーン映像62が連続再生中であれば、タイムライン85は、シーン映像62の再生位置に追従して、左から右にスライドしていく。
The
分析支援装置2は、シーン映像表示領域83に対して、例えば、汎用の動画再生モジュールを埋め込む。シーン映像表示領域83は、再生、一時停止、早送り、巻き戻し、ミュート(消音)、ボリューム調整などのボタンを有する。視点マーク86aは、S52において対応付けられる視点座標データ55の位置を示す。図10では、2つの視点マーク86aが存在する。これは、視点座標データ55の位置が切り替わる様子を示している。視点座標データ55の位置が変化しないときは、視点マーク86aは1つである。
The
分析支援装置2は、計測情報表示領域84に対して、例えば、興味度(%)及び興味度変化の表示/非表示設定(Change Chart Visible)、興味度80及び興味度変化の統計値(Information)、シーン映像62の再生時間(movie length)、脳波のシフト時間(EEG data shift)などを表示する。脳波のシフト時間(EEG data shift)は、時間差61に相当する。
The
図10に示すように、第1実施形態では、分析支援装置2の制御部21は、被験者の視点座標をシーン映像62に1フレームずつ対応付ける。そして、制御部21は、視点座標の位置を示す視点マーク86aを重畳しながらシーン映像62を表示部23に再生するとともに、シーン映像62の再生位置を示すタイムライン85を重畳しながら潜在意識度の変動を時系列のグラフとして表示部23に描画する。
As illustrated in FIG. 10, in the first embodiment, the control unit 21 of the
第1実施形態によれば、TVCMなどの動画像や被験者が移動するなどの動的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。例えば、分析者は、潜在意識度がピークのとき、被験者が動的コンテンツのどの場面の、どの位置を視聴しているのかを容易に視認することができる。 According to the first embodiment, in the case of a moving image such as a TVCM or dynamic content such as a subject moving, the analyst can simultaneously view the subject's subconsciousness and the change in viewpoint. For example, the analyst can easily visually recognize which scene and which position of the dynamic content the subject is viewing when the subconsciousness is at the peak.
<第2実施形態>
図11及び図12を参照しながら、第2実施形態について説明する。第2実施形態では、第1実施形態の要素と同一の要素には同一の番号を付し、重複説明を省略する。
Second Embodiment
The second embodiment will be described with reference to FIGS. 11 and 12. In 2nd Embodiment, the same number is attached | subjected to the element same as the element of 1st Embodiment, and duplication description is abbreviate | omitted.
図11は、第2実施形態における分析支援装置2の処理を示すフローチャートである。図11に示すように、分析支援装置2の制御部21は、所定のサンプリング間隔(例えば、1秒間)ごとに算出される興味度80から、時系列のグラフデータを生成する(S61)。
FIG. 11 is a flowchart showing the processing of the
制御部21は、視点座標データ55をシーン映像62に1フレームずつ対応付ける(S62)。更に、制御部21は、マッピングした視点座標を興味度80に応じて装飾する(S63)。装飾態様としては、興味度80に応じて、視点マークの形状、模様、色彩を変更したり、他のマークを付加したりすることが考えられる。
The control unit 21 associates the viewpoint coordinate
制御部21は、時間差61に基づいて時系列を同期して、S61において生成される興味度80の曲線データと、S63において装飾された視点マークが重畳されるシーン映像62とを、同一画面の表示部23に表示する(S64)。
Based on the
図12は、第2実施形態における表示例である。図12に示す例では、図10に示す例と同様、コンテンツは、被験者が移動することを前提とする動的コンテンツである。 FIG. 12 is a display example in the second embodiment. In the example illustrated in FIG. 12, the content is dynamic content on the assumption that the subject moves as in the example illustrated in FIG. 10.
図12に示す計測結果表示画面81bは、興味度曲線表示領域82、シーン映像表示領域83及び計測情報表示領域84、装飾度合87を含む。装飾度合87は、S63における装飾の度合を示す。 The measurement result display screen 81b shown in FIG. 12 includes an interest curve display area 82, a scene video display area 83, a measurement information display area 84, and a decoration degree 87. The decoration degree 87 indicates the degree of decoration in S63.
分析支援装置2は、シーン映像表示領域83において、装飾された視点マーク86bをシーン映像62に重畳する。図12に示す例では、装飾度合87は、視点マークの模様の差異によって表現されている。つまり、視点マーク86bは、興味度80に応じて模様が変更される。尚、特許図面の制約の為、色彩を変更する例が図示できないが、例えば、サーモグラフィのように、興味度80が高い方から順に、「赤色」、「橙色」、「黄色」、「黄緑色」、「緑色」といった色彩の変更を行うと、直観的に理解し易い。
The
図12に示すように、第2実施形態では、分析支援装置2の制御部21は、被験者の視点座標をシーン映像62に1フレームずつ対応付け、更に、視点座標の位置を示す視点マーク86bの装飾度合を潜在意識度に応じて決定する。そして、制御部21は、装飾度合に応じて装飾された視点マーク86bを重畳しながらシーン映像62を再生するとともに、シーン映像62の再生位置を示すタイムライン85を重畳しながら潜在意識度の変動を時系列のグラフとして表示部23に描画する。
As shown in FIG. 12, in the second embodiment, the control unit 21 of the
第2実施形態によれば、TVCMなどの動画像や被験者が移動するなどの動的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。特に、視点マーク86bが潜在意識度に応じて装飾されて表示されるので、分析者は、潜在意識度の変動を動的コンテンツ上で視認することができる。 According to the second embodiment, in the case of a dynamic image such as a moving image such as a TV commercial or a subject moving, the analyst can visually recognize the subject's subconsciousness and changes in the viewpoint at the same time. In particular, since the viewpoint mark 86b is decorated and displayed according to the subconsciousness level, the analyst can visually recognize the change in the subconsciousness level on the dynamic content.
<第3実施形態>
図13及び図14を参照しながら、第3実施形態について説明する。第3実施形態では、第1実施形態又は第2実施形態の要素と同一の要素には同一の番号を付し、重複説明を省略する。
<Third Embodiment>
The third embodiment will be described with reference to FIGS. 13 and 14. In 3rd Embodiment, the same number is attached | subjected to the element same as the element of 1st Embodiment or 2nd Embodiment, and duplication description is abbreviate | omitted.
図13は、第3実施形態における分析支援装置2の処理を示すフローチャートである。図13に示すように、分析支援装置2の制御部21は、視点座標データ55の座標を、スナップショット画像63の座標系に変換する(S71)。制御部21は、マーカーを使用する場合、例えば、トビー・テクノロジー社の「Tobii Studio ソフトウェア」によって実現される機能を利用して、座標変換を行う。また、制御部21は、マーカーを使用しない場合、例えば、特開2011−194105号公報に開示されている技術を利用して、座標変換を行う。両者とも公知の技術であるため、詳細な説明は省略する。尚、スナップショット画像63の座標系における被験者の視点位置を示すx座標及びy座標を用いる場合、S71における座標変換は不要である。
FIG. 13 is a flowchart showing the processing of the
制御部21は、スナップショット画像63の座標系に変換された視点座標をスナップショット画像63に対応付ける(S72)。つまり、単一のスナップショット画像63に対して、複数の視点座標が対応付けられる。
The control unit 21 associates the viewpoint coordinates converted into the coordinate system of the
制御部21は、時間差61に基づいて時系列を同期して、興味度80に応じて視点座標を示す視点マークを装飾し、装飾された視点マークが重畳されたスナップショット画像63を表示部23に表示する(S73)。装飾態様は、第2実施形態と同様である。
The control unit 21 synchronizes the time series based on the
図14は、第3実施形態における表示例である。図14に示す例では、コンテンツは、紙媒体の静的コンテンツである。この例では、家電製品のチラシであり、例えば、被験者がチラシのどの位置に興味を示すかを調査する。 FIG. 14 is a display example in the third embodiment. In the example shown in FIG. 14, the content is a static content of a paper medium. In this example, the leaflet is a home appliance, and for example, it is investigated to which position of the leaflet the subject is interested.
図14に示す計測結果表示画面81cは、スナップショット画像63、装飾度合87、複数の視点マーク86cを含む。分析支援装置2の制御部21は、視点マーク86cを装飾する際、更に、視点座標ごとに閲覧時間を算出し、閲覧時間に応じて視点マーク86cの面積度合を決定する。図14では、5つの視点マーク86cが、それぞれ異なる装飾及び面積でスナップショット画像63に重畳されている。
The measurement result display screen 81c shown in FIG. 14 includes a
図14に示すように、第3実施形態では、分析支援装置2の制御部21は、被験者の視点座標をスナップショット画像63の座標系に座標変換して単一のスナップショット画像63に対応付け、更に、視点座標の位置を示す視点マーク86cの装飾度合を潜在意識度に応じて決定するとともに、視点座標ごとに閲覧時間を算出して視点マーク86cの面積度合を閲覧時間に応じて決定する。そして、制御部21は、視点座標ごとに、装飾度合に応じて装飾された面積度合の面積を有する視点マーク86cを重畳してスナップショット画像63を表示部23に表示する。
As shown in FIG. 14, in the third embodiment, the control unit 21 of the
第3実施形態によれば、雑誌広告やチラシなどの静的コンテンツの場合において、分析者は、被験者の潜在意識度及び視点の変動を同時に視認することができる。例えば、分析者は、被験者が静的コンテンツのどの位置をどのぐらいの時間視聴しているのかを容易に視認することができる。 According to the third embodiment, in the case of a static content such as a magazine advertisement or a flyer, the analyst can simultaneously recognize the subject's subconsciousness and the change in viewpoint. For example, the analyst can easily visually recognize which position of the static content the subject is watching for how long.
以上、添付図面を参照しながら、本発明に係る分析支援装置などの好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the analysis support apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood.
1………市場調査システム
2………分析支援装置
3………脳波計
4………視点追跡装置
50………脳波データ
55………視点座標データ
61………脳波計測開始時刻及び視点計測開始時刻の時間差
62………シーン映像
63………スナップショット画像
80………興味度
1 ...
Claims (6)
前記脳波計によって計測される前記被験者の脳波データと、前記視点追跡装置によって計測される前記被験者の視点座標データと、前記視点追跡装置によって撮像される前記コンテンツに係るシーン映像又はスナップショット画像と、前記脳波計による計測開始時刻及び前記視点追跡装置による計測開始時刻の時間差とを記憶する記憶手段と、
前記脳波データに基づいて前記被験者の潜在意識度を算出する潜在意識度算出手段と、
前記視点座標データに基づいて前記被験者の視点座標を前記シーン映像又は前記スナップショット画像に対応付ける対応付け手段と、
前記時間差に基づいて時系列を同期して、前記被験者の視点座標が対応付けられる前記シーン映像又は前記スナップショット画像と、前記潜在意識度とを同一画面に表示する表示手段と、
を具備することを特徴とする分析支援装置。 An analysis support device that supports analysis of measurement results by an electroencephalograph and a viewpoint tracking device for a subject who is browsing content,
The subject's electroencephalogram data measured by the electroencephalograph, the subject's viewpoint coordinate data measured by the viewpoint tracking device, the scene video or snapshot image relating to the content imaged by the viewpoint tracking device, and Storage means for storing the time difference between the measurement start time by the electroencephalograph and the measurement start time by the viewpoint tracking device;
Subconsciousness calculating means for calculating the subconsciousness of the subject based on the electroencephalogram data;
Association means for associating the subject's viewpoint coordinates with the scene image or the snapshot image based on the viewpoint coordinate data;
Display means for synchronizing the time series based on the time difference, displaying the scene video or the snapshot image associated with the subject's viewpoint coordinates, and the subconsciousness on the same screen,
An analysis support apparatus comprising:
前記脳波データ及び前記視点座標データに基づいて前記時間差を算出し、前記時間差を前記記憶手段に記憶する時間差算出手段、
を更に具備することを特徴とする請求項1に記載の分析支援装置。 The electroencephalogram data includes a measurement start time by the electroencephalograph, and the viewpoint coordinate data includes a measurement start time by the viewpoint tracking device,
Calculating the time difference based on the electroencephalogram data and the viewpoint coordinate data, and storing the time difference in the storage means;
The analysis support apparatus according to claim 1, further comprising:
前記表示手段は、前記視点座標の位置を示す視点マークを重畳しながら前記シーン映像を再生するとともに、前記シーン映像の再生位置を示すタイムラインを重畳しながら前記潜在意識度の変動を時系列のグラフとして描画する
ことを特徴とする請求項1又は請求項2に記載の分析支援装置。 The association means associates the viewpoint coordinates with the scene image frame by frame,
The display means reproduces the scene video while superimposing a viewpoint mark indicating the position of the viewpoint coordinates, and superimposes a timeline indicating a reproduction position of the scene video while displaying a change in the subconsciousness in a time series. The analysis support apparatus according to claim 1, wherein the analysis support apparatus is drawn as a graph.
前記表示手段は、前記装飾度合に応じて装飾された前記視点マークを重畳しながら前記シーン映像を再生するとともに、前記シーン映像の再生位置を示すタイムラインを重畳しながら前記潜在意識度の変動を時系列のグラフとして描画する
ことを特徴とする請求項1又は請求項2に記載の分析支援装置。 The association means associates the viewpoint coordinates with the scene image frame by frame, and further determines the degree of decoration of a viewpoint mark indicating the position of the viewpoint coordinates according to the subconsciousness level,
The display means reproduces the scene video while superimposing the viewpoint marks decorated according to the degree of decoration, and superimposes a timeline indicating a playback position of the scene video to change the subconsciousness level. The analysis support apparatus according to claim 1, wherein the analysis support apparatus is drawn as a time-series graph.
前記表示手段は、前記視点座標ごとに、前記装飾度合に応じて装飾された前記面積度合の面積を有する前記視点マークを重畳して前記スナップショット画像を表示する
ことを特徴とする請求項1又は請求項2に記載の分析支援装置。 The association means performs coordinate conversion of the viewpoint coordinates into a coordinate system of the snapshot image and associates the viewpoint coordinates with a single snapshot image, and further determines the degree of decoration of the viewpoint mark indicating the position of the viewpoint coordinates as the latent image. While determining according to the degree of consciousness, calculating the viewing time for each viewpoint coordinate to determine the area degree of the viewpoint mark according to the viewing time,
The display means displays the snapshot image by superimposing the viewpoint mark having an area of the area degree decorated according to the degree of decoration for each viewpoint coordinate. The analysis support apparatus according to claim 2.
前記脳波計によって計測される前記被験者の脳波データと、前記視点追跡装置によって計測される前記被験者の視点座標データと、前記視点追跡装置によって撮像される前記コンテンツに係るシーン映像又はスナップショット画像と、前記脳波計による計測開始時刻及び前記視点追跡装置による計測開始時刻の時間差とを記憶する記憶手段と、
前記脳波データに基づいて前記被験者の潜在意識度を算出する潜在意識度算出手段と、
前記視点座標データに基づいて前記被験者の視点座標を前記シーン映像又は前記スナップショット画像に対応付ける対応付け手段と、
前記時間差に基づいて時系列を同期して、前記被験者の視点座標が対応付けられる前記シーン映像又は前記スナップショット画像と、前記潜在意識度とを同一画面に表示する表示手段
として機能させるためのプログラム。 A program for causing a computer to function as an analysis support device that supports analysis of measurement results by an electroencephalograph and a viewpoint tracking device for a subject who is browsing content,
The subject's electroencephalogram data measured by the electroencephalograph, the subject's viewpoint coordinate data measured by the viewpoint tracking device, the scene video or snapshot image relating to the content imaged by the viewpoint tracking device, and Storage means for storing the time difference between the measurement start time by the electroencephalograph and the measurement start time by the viewpoint tracking device;
Subconsciousness calculating means for calculating the subconsciousness of the subject based on the electroencephalogram data;
Association means for associating the subject's viewpoint coordinates with the scene image or the snapshot image based on the viewpoint coordinate data;
A program for functioning as a display unit that synchronizes time series based on the time difference and displays the scene video or the snapshot image associated with the subject's viewpoint coordinates and the subconscious degree on the same screen. .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012046158A JP2013180076A (en) | 2012-03-02 | 2012-03-02 | Analysis supporting device and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012046158A JP2013180076A (en) | 2012-03-02 | 2012-03-02 | Analysis supporting device and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013180076A true JP2013180076A (en) | 2013-09-12 |
Family
ID=49271159
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012046158A Pending JP2013180076A (en) | 2012-03-02 | 2012-03-02 | Analysis supporting device and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013180076A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015188649A (en) * | 2014-03-28 | 2015-11-02 | 大日本印刷株式会社 | Multiple physiological index and gaze analysis support device, program |
| JP2015229040A (en) * | 2014-06-06 | 2015-12-21 | 株式会社電通サイエンスジャム | Emotion analysis system, emotion analysis method, and emotion analysis program |
| JP2019512822A (en) * | 2016-03-14 | 2019-05-16 | フヴィ・コグニティヴ・ネットワーク・コーポレーション | Personal emotion-based computer-readable cognitive sensory memory and cognitive insights to enhance memory and decision making |
| JP2019208885A (en) * | 2018-06-05 | 2019-12-12 | 株式会社電通サイエンスジャム | Emotion evaluation support system and emotion evaluation support method |
| WO2020004485A1 (en) * | 2018-06-26 | 2020-01-02 | キリンホールディングス株式会社 | Evaluation device, evaluation method, program, and recording medium |
| JPWO2023187973A1 (en) * | 2022-03-29 | 2023-10-05 | ||
| CN121242563A (en) * | 2025-12-04 | 2026-01-02 | 四川省医学科学院·四川省人民医院 | A Dynamic Monitoring System and Method for Sitting Posture and Eye Distance Based on Radio Frequency Tag Identification |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10164281A (en) * | 1996-11-26 | 1998-06-19 | Fuji Xerox Co Ltd | Picture evaluating method and device |
| JP2002183212A (en) * | 2000-12-19 | 2002-06-28 | Fuji Xerox Co Ltd | System and method for processing electronic document and computer-readable recording medium |
| WO2007135796A1 (en) * | 2006-05-18 | 2007-11-29 | Visual Interactive Sensitivity Research Institute Co., Ltd. | Control device for evaluating user response to content |
-
2012
- 2012-03-02 JP JP2012046158A patent/JP2013180076A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10164281A (en) * | 1996-11-26 | 1998-06-19 | Fuji Xerox Co Ltd | Picture evaluating method and device |
| JP2002183212A (en) * | 2000-12-19 | 2002-06-28 | Fuji Xerox Co Ltd | System and method for processing electronic document and computer-readable recording medium |
| WO2007135796A1 (en) * | 2006-05-18 | 2007-11-29 | Visual Interactive Sensitivity Research Institute Co., Ltd. | Control device for evaluating user response to content |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015188649A (en) * | 2014-03-28 | 2015-11-02 | 大日本印刷株式会社 | Multiple physiological index and gaze analysis support device, program |
| JP2015229040A (en) * | 2014-06-06 | 2015-12-21 | 株式会社電通サイエンスジャム | Emotion analysis system, emotion analysis method, and emotion analysis program |
| JP2019512822A (en) * | 2016-03-14 | 2019-05-16 | フヴィ・コグニティヴ・ネットワーク・コーポレーション | Personal emotion-based computer-readable cognitive sensory memory and cognitive insights to enhance memory and decision making |
| JP2019208885A (en) * | 2018-06-05 | 2019-12-12 | 株式会社電通サイエンスジャム | Emotion evaluation support system and emotion evaluation support method |
| WO2020004485A1 (en) * | 2018-06-26 | 2020-01-02 | キリンホールディングス株式会社 | Evaluation device, evaluation method, program, and recording medium |
| JPWO2020004485A1 (en) * | 2018-06-26 | 2021-08-02 | キリンホールディングス株式会社 | Evaluation device, evaluation method, program and recording medium |
| JP7391332B2 (en) | 2018-06-26 | 2023-12-05 | キリンホールディングス株式会社 | Evaluation device, evaluation method, program and recording medium |
| JPWO2023187973A1 (en) * | 2022-03-29 | 2023-10-05 | ||
| WO2023187973A1 (en) * | 2022-03-29 | 2023-10-05 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, method for controlling information processing device, and program |
| JP7771361B2 (en) | 2022-03-29 | 2025-11-17 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, control method for information processing device, and program |
| CN121242563A (en) * | 2025-12-04 | 2026-01-02 | 四川省医学科学院·四川省人民医院 | A Dynamic Monitoring System and Method for Sitting Posture and Eye Distance Based on Radio Frequency Tag Identification |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11488198B2 (en) | Stimulus placement system using subject neuro-response measurements | |
| JP2013180076A (en) | Analysis supporting device and program | |
| CN111343917B (en) | Method for hosting mobile access to high resolution electroencephalogram data | |
| US8392250B2 (en) | Neuro-response evaluated stimulus in virtual reality environments | |
| US8548852B2 (en) | Effective virtual reality environments for presentation of marketing materials | |
| Khushaba et al. | Choice modeling and the brain: A study on the Electroencephalogram (EEG) of preferences | |
| KR101535432B1 (en) | Contents valuation system and contents valuating method using the system | |
| US9560984B2 (en) | Analysis of controlled and automatic attention for introduction of stimulus material | |
| KR101850101B1 (en) | Method for providing advertising using eye-gaze | |
| Ladouce et al. | Capturing cognitive events embedded in the real world using mobile electroencephalography and eye-tracking | |
| US20120191542A1 (en) | Method, Apparatuses and Service for Searching | |
| US20100249538A1 (en) | Presentation measure using neurographics | |
| US20090247895A1 (en) | Apparatus, method, and computer program for adjustment of electroencephalograms distinction method | |
| US20220067376A1 (en) | Method for generating highlight image using biometric data and device therefor | |
| EP3058873A1 (en) | Device for measuring visual efficacy | |
| JP2014021986A (en) | Content provision method and display device using the same | |
| CN103154953A (en) | Measuring affective data for web-enabled applications | |
| JP2015229040A (en) | Emotion analysis system, emotion analysis method, and emotion analysis program | |
| WO2018088187A1 (en) | Information processing device, information processing method, and program | |
| US20230043838A1 (en) | Method for determining preference, and device for determining preference using same | |
| WO2016209435A1 (en) | Electrode contact quality | |
| CN108304074A (en) | Display control method and related product | |
| CN106874672A (en) | A kind of method and mobile terminal for showing EEG data | |
| KR102186580B1 (en) | Method for estimating emotion of user and apparatus therefor | |
| US20150078728A1 (en) | Audio-visual work story analysis system based on tense-relaxed emotional state measurement and analysis method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150116 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151126 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151208 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160405 |
