CN106923908B - 性别注视特性分析系统 - Google Patents
性别注视特性分析系统 Download PDFInfo
- Publication number
- CN106923908B CN106923908B CN201511009207.6A CN201511009207A CN106923908B CN 106923908 B CN106923908 B CN 106923908B CN 201511009207 A CN201511009207 A CN 201511009207A CN 106923908 B CN106923908 B CN 106923908B
- Authority
- CN
- China
- Prior art keywords
- type
- gaze
- frequency
- attention
- fixation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000006243 chemical reaction Methods 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 230000000007 visual effect Effects 0.000 claims description 13
- 241000282414 Homo sapiens Species 0.000 claims description 11
- 239000000203 mixture Substances 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 6
- 238000013461 design Methods 0.000 abstract description 10
- 238000000034 method Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 12
- 210000001508 eye Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000004438 eyesight Effects 0.000 description 6
- 208000003443 Unconsciousness Diseases 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 4
- 239000010931 gold Substances 0.000 description 4
- 229910052737 gold Inorganic materials 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 241001154287 Hucho taimen Species 0.000 description 2
- 241000282376 Panthera tigris Species 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 235000017166 Bambusa arundinacea Nutrition 0.000 description 1
- 235000017491 Bambusa tulda Nutrition 0.000 description 1
- 241001330002 Bambuseae Species 0.000 description 1
- 235000015334 Phyllostachys viridis Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 239000011425 bamboo Substances 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
本发明提供性别注视特性分析系统,其提供反映到空间设计的基础数据的性别注视特性分析系统,其包括:注视数据检测部,以多名受试者为对象,在规定时间内通过对图像空间的视线追踪来检测多个注视点和注视点的多个移动路径;注视类型判断部,判断注视点的移动路径;第一注视类型频率掌握部,针对多名受试者掌握各注视类型的频率;第一注视类型比例转换部,用于将第一注视类型频率掌握部掌握的注视类型的频率转换成比例;第二注视类型频率掌握部,掌握第一注视类型频率掌握部掌握的各注视类型的频率;第二注视类型比例转换部,用于将第二注视类型频率掌握部掌握的注视类型的频率转换成比例;以及注视类型抽取部,抽取频率最大的优势频率。
Description
技术领域
本发明实施例涉及通过获得基于性别空间探索路径的空间探索特性信息,从而可提供反映到空间设计的基础数据的性别注视特性分析系统。
背景技术
当人们想要获得某种信息时,视觉作为最为重要的手段,人们通过视觉的多种活动被目标的意图、兴趣、现有知识、动作、无意识动机、脉络等所主导。在空间中具有连锁反应并探索信息的眼睛若看到感兴趣的特征,则通过移动眼珠或头部来校准焦点并固定,之后重新移动。在此过程中,固定可视为针对感兴趣的目标的固定,且移动可视为用于查找其他兴趣的探索,或者针对不想看到的要素的回避。这种移动中,意识和无意识相互交叉,且个人差异在无意识当中以重要的要素来反应。在观察空间的过程中,在反映自己心像结构的过程中会介入个人差异的重要性,且在进行无意识的固定活动或移动的过程或特征根据空间的种类和个人因素而改变。虽然很难将无意识定量化,但目前IT技术的发达为将人类的感性转换为定量性数据带来了契机。尤其,在人机交互(Human-Computer Interaction,HCI或CH I)相关技术领域中,针对如何将相互不同人类的感性实现定量化,正探究理解人类并引导相互交流的方法,从而达到通过尖端技术来开发可将人类的感性定量化的技术。但是,与相关设备的发达相比,用于适用到人类感性的技法开发还处于不足的地位。
当所要测定针对环境的感性反映时,当前面临如何证明相互交流的问题,而这答案恰是生物信号。基于感性的评价或判断的依据中主要因素为通过视觉获得的信息,因此,若测定通过视觉获得的信息所持有的人类的生物信号,来查明与空间的关系,则可将在注视空间的过程中所出现的感性变化定量化,并且,在此基础上,可进行神经设计。人类的感性不仅受到复杂且微妙的环境的影响,而且预料根据性别产生的结构性差异会影响视知觉生物信号。视觉活动受到意图性的影响,但若知晓根据性别而具有意图性的空间注视过程的探索路径特性,则可成为有效测定人类和空间特性之间的关系,并可反映到空间设计的基础资料。
现有技术文献
非专利文献
非专利文献1.“朴灿雄,眼见,图书出版医学书院,2009”
非专利文献2.“竹内,译朴正荣,时间论,冷杉林,2011”
非专利文献3.“Arthur Asa Berger,百闻不如一见,李智熙,美进社,2001”
非专利文献4.“Robert L.Solso,视觉心理学,申玄京,刘常旭,SIGMA+,2000”
非专利文献5.“高郁真,李义哲,朴康玲,有关瞳孔移动和角膜反射光及基于卡尔曼滤波器的视线追踪的研究,信息处理学会伦文杂志B,第16-B卷第三号,2009”
非专利文献6.“金志虎,傅秀贤,李宇哲,金哉挥,广告的大小和位置,部分重叠线索对消费者的视觉行动产生的影响,韩国心理学会刊,第八卷三号,2007”
非专利文献7.“金钟何,有关室内空间注视数据的修正和分析过程妥当性的研究,韩国室内设计学会论文集,第二十卷三号,2011”
非专利文献8.“金钟何,关于在空间信息的探索过程中产生的视觉信息获得特性的研究,韩国室内设计学会论文集,第二十三卷二号,2014”
非专利文献9.“金钟何,金周燕,空间使用人员的本能性视线探索活动所产生的注视路径算法特性,感性科学,第十七卷第二号,2014”
非专利文献10.“金志虎,傅秀贤,李宇哲,金哉挥,广告的大小和位置,部分重叠线索对消费者的视觉行动产生的影响,韩国心理学会刊,第八卷三号,2007”
非专利文献11.“李哉华,李建彪,有关产品使用环境的使用人员初期感性测定方法的研究,感性科学,第十三卷一号,2010”
非专利文献12.“刘哉叶,朴慧京,任采真,有关博物馆展览空间中的注视特性的基础性研究,韩国室内设计学会,第二十卷二号,2011”
非专利文献13.“崔桂英,金钟何,有关通过注视意图性追踪的咖啡馆空间的视觉性特性的研究,韩国室内设计学会论文集,第二十二卷三号,2013”
非专利文献14.“金英振,查看网页的人类的心和眼(1),http://blog.naver.com/4bathory/20016893040”
发明内容
本发明的实施例提供通过获得基于性别空间探索路径的空间探索特性信息,从而可提供反映空间设计的基础数据的性别注视特性分析系统。
本发明实施例的性别注视特性分析系统包括:注视数据检测部,以多名受试者为对象,在规定时间内通过对于图像空间的视线追踪来检测多个注视点和针对上述注视点的多个移动路径;注视类型判断部,用于将通过上述注视数据检测部来检测的注视点的移动路径分别判断为预设的多个注视类型中的一个并进行分类;第一注视类型频率掌握部,针对上述多名受试者分别掌握通过上述注视类型判断部来判断的各注视类型的频率;第一注视类型比例转换部,用于将通过上述第一注视类型频率掌握部所掌握的注视类型的频率分别转换成比例;第二注视类型频率掌握部,根据上述受试者的性别来掌握通过上述第一注视类型频率掌握部所掌握的各注视类型的频率;第二注视类型比例转换部,用于将通过上述第二注视类型频率掌握部所掌握的注视类型的频率分别转换成比例;以及注视类型抽取部,在分别通过上述第二注视类型频率掌握部来掌握的各个注视类型中抽取具有最大频率的优势频率,并分别按照注视时间区间来抽取。
并且,在针对上述图像空间内特定对象的上述受试者的视线在角度为2度的视网膜中央凹(fovea)的范围内维持0.1秒以上的情况下,上述注视数据检测部可将这种情况检测为一个注视点,在上述受试者的视线脱离上述图像空间范围的情况下,上述注视数据监测部可将这种情况识别为结束针对注视点的一个移动路径。
并且,上述注视类型判断部可将针对上述受试者的注视点的移动路径判断为直线类型、旋转类型、集中类型及混合类型中的一种类型,在角度为3度至6度的视网膜近窝区(parafovea)的范围内检测到针对上述受试者注视点的移动路径的情况下,上述注视类型判断部将上述受试者注视点的移动路径判断为上述集中类型,在针对上述受试者的注视点的移动路径由上述直线类型、上述旋转类型及上述集中类型中的两种以上类型重复的情况下,上述注视类型判断部将上述受试者注视点的移动路径判断为上述混合类型。
并且,上述第二注视类型频率掌握部可分别提供针对男性受试者的注视类型频率和针对女性受试者的注视类型频率之间的差值和大小结果。
并且,上述注视类型抽取部可分别提供针对男性受试者抽取的注视类型的优势频率和针对女性受试者抽取的注视类型的优势频率之间的差值和大小结果。
本发明实施例的性别注视特性分析系统可通过获得基于性别空间探索路径的空间探索特性信息,从而可提供反映空间设计的基础数据。
附图说明
图1为表示本发明实施例的性别注视特性分析系统的整体结构的结构图。
图2为表示本发明实施例的注视路径的例的图表。
图3为表示本发明实施例的注视类型中的直线类型的例的图表。
图4为表示本发明实施例的注视类型中的旋转类型的例的图表。
图5为表示本发明实施例的注视类型中的集中类型的例的图表。
图6为表示本发明实施例的注视类型中的混合类型的例的图表。
图7的(a)部分为根据本发明实施例来表示性别频率特性的图表。
图7的(b)部分为根据本发明实施例来表示性别比例特性的图表。
图8的(a)部分为根据本发明实施例来表示针对男性的注视类型的优势频率变化特性的图表。
图8的(b)部分为根据本发明实施例来比较性别优势注视类型的图表。
附图标记的说明
100:性别注视特性分析系统 110:注视数据检测部
120:注视类型判断部 130:第一注视类型频率掌握部
140:第一注视类型比例转换部 150:第二注视类型频率掌握部
160:第二注视类型比例转换部 170:注视类型抽取部
具体实施方式
简要说明使用于本说明书的术语,并具体说明本发明。
使用于本发明的术语在考虑到在本发明中的功能的情况下,选择了当前广泛使用的一般术语,但这种术语可根据本发明所属技术领域的普通技术人员的意图或惯例,新技术的出现等而改变。并且,在特定的情况下,也存在申请人员任意选定的术语,在此情况下,会在对应发明的说明部分中将详细说明其含义。因此,本发明所使用的术语应基于相应术语所持有的含义和本发明整体内容来定义,而不是以简单的术语的名称来定义。
在整个说明书中,当表示某一部分“包括”某一结构要素时,除非有特殊记载,则这意味着还可包括其他结构要素,而不是排除其他结构要素。并且,说明书所记载的“…部”等术语表示处理至少一种功能或动作的单位,且这种“…部”可体现为硬件或软件,或硬件或软件的结合。
以下,参照附图,详细说明本发明的实施例,使得本发明所属技术领域的普通技术人员容易实施本发明。但是,本发明可体现为多种不同形态,且并不局限于在此说明的实施例。而且,为了明确地说明本发明,在附图中省略了与说明无关的部分,且针对整个说明书中的相同部分,标上了相同的附图标记。
图1为表示本发明实施例的性别注视特性分析系统的整体结构的结构图。
参照图1,本发明实施例的性别注视特性分析系统100包括注视数据检测部110、注视类型判断部120、第一注视类型频率掌握部130、第二注视类型频率掌握部150、第一注视类型比例转换部140、第二注视类型比例转换部160及注视类型抽取部170。
以下,为了有助于理解性别注视特性分析系统100,与上述系统100的结构说明一同说明利用上述系统100来以多名受试者为对象实施的实验例。
在本发明的实验例中,以从出检票口的入口侧注视大厅为状态的图像作为对象来实施注视实验。地铁大厅空间作为乘客出入交叉的空间,搭乘地铁的访客朝向买票口和检票口,从检票口出来的访客从大厅朝向目的地或者通过注视周边来探索信息。在对某一场所不太熟悉的访客的情况下,可能会探索更多的信息,并预料在大厅所提供的信息指示和情况中活跃地进行用于查找实用信息的视觉活动。因此,向受试者说明他处于重未访问过相应空间的状态,并赋予受试者注视的意图,之后对“出地铁检票口之后所看到的状态,请注视地铁大厅空间”的句子进行说明并进行了实验。将成人眼睛高度的1.5m作为用于获得图像的拍摄高度,并将镜头画角设为8mm(画角75度)。
实验以男女各30名(共60名)为对象来进行。在实验过程中,由于眼镜和镜头会使瞳孔产生折射,因此,以未佩戴眼镜的视力为0.8以上的受试者为对象来实施实验。并将受试者周边的环境变暗,使得受试者可以仅集中于显示器所提示的图像,受试者在佩戴视觉装置(相当于上述注视数据检测部110)的状态下,给予受试者在暗室实验室中30秒钟的适应时间。上述视觉装置固定下巴和额头,而仅可自由转动眼睛,眼睛和显示器之间的距离为650mm,显示器的大小为509×286mm。在适应暗示之后,针对十六个注视点实施对图像校准测定点和眼睛焦点的准确测定。
视觉性注意集中可借助意图、兴趣、现有知识、动作、无意识动机、脉络等来主导,也可通过测定眼球运动来查看观察人员的意图和目的。若眼睛针对对象校准焦点,则仅清楚地识别包含于角度约为1~2度的视网膜中央凹范围的影像。视网膜中央凹、周边视网膜近窝区朝向视网膜中央凹的外围形成3~6度左右的角度,在视网膜近窝区中的视觉印象并不明确,但检测一部分信息。
在本发明的实验例中,实验设备检测瞳孔的中心,并借助0~1范围坐标(x,y)数据来每秒钟记录60个注视点。若眼睛注视脱离相应空间的位置或者眨眼睛,则可存储成小于0或大于1的数据。另一方面,不能将所有注视数据视为由上述受试者所获得的视觉信息。这是因为,人类可检测的最短时间为0.03秒(=30ms)、用于确保连续性的最短时间为0.05秒、用于感觉某一事物的集中力集中的时间为0.1秒。如上所述,眼睛一直反复固定和移动,但在视线移动的时间内不发生感觉,因此,以上述理由为依据,将在固定视线的状态下维持的时间设定为0.1秒,用于感觉某一空间要素。为了感觉相应对象,视线应停留在视网膜中央凹0.1秒以上,但因存储为60个(0.0167秒/每一个)的最初数据的间隔过短,而将上述60个减至30个(0.033秒/每一个),来作为用于确保连续性的最少注视数据。并且,将用作空间信息来感觉的视网膜中央凹的范围设为2度,并将注视数据在上述范围内连续停留的状态定义为“固定”。
作为在探索空间信息的过程中所发生的动作,视线的移动反复进行移动并在停止状态下探索或获得信息之后重新移动的过程。这种过程发生在实验时间内获得对象空间的信息的过程中,除固定和移动之外还发生信息获得过程的断绝。断绝为除固定或移动之外出现的眨眼睛或者视线脱离实验图像的范围的情况。在断绝中,用于获得空间信息的数据收集被断绝,而若重新进行注视,则视线为找到新的对象而移动或者为了重新观看之前感觉的细微特征而再次进行探索的视觉活动。在反复固定和移动的过程中,若注视数据用线连接由信息获得所形成的固定的地点,则可制成注视路径。
图2为表示本发明实施例的注视路径的例的图表。如图2的(a)部分所示,直到发生注视断绝,一个注视路径的范围则继续进行固定和移动。图2的(b)部分作为注视路径的事例,可知在九号地点发生注视路径,在左侧末端地点发生断绝之后,重新向十号地点形成注视路径,并在十号地点的左侧重新发生断绝之后,重新在十一号地点的右侧开始探索。
在结束注视的地点(开始断绝的地点)中,重新开始新的注视的开始地点(断绝结束地点)的间隔根据各个注视类型的出现而呈现出不同。注视的开始点和结束点之间的间隔窄的情况可视为断绝之后连续探索针对之前注视对象的探索,相反,注视的开始点和结束点之间的间隔宽的情况可视为为查找新的信息而进行大的移动。若分析这种注视路径,则可分析受试者获得空间信息的过程和模式,若介入空间信息,则可知受试者以何种要素或空间信息为媒介来进行视线移动。
上述注视数据检测部110以多名受试者为对象,在规定时间内通过对图像空间的视线追踪来检测多个注视点和针对上述注视点的多个移动路径。并且,上述注视数据检测部110对于上述图像空间内的特定对象的上述受试者的视线在角度为2度的视网膜中央凹范围内维持0.1秒以上的情况下,将其检测成一个注视点,当上述受试者的视线脱离上述图像空间的范围的情况下,识别成结束对于注视点的一个移动路径。
上述注视类型判断部120可将通过上述注视数据检测部来检测的注视点的移动路径分别判断并分类为预设的多个注视类型中的一种。并且,上述注视类型判断部120可将针对上述受试者的检测点的移动路径判断为直线类型、旋转类型、集中类型及混合类型中的一种类型,在角度为3度至6度的视网膜近窝区(parafovea)的范围内检测到针对上述受试者的注视点的移动路径的情况下,将这种情况判断为集中类型,在针对上述受试者的注视点的移动路径为上述直线类型、上述旋转类型及上述集中类型中的两种以上类型的情况下,可判断为上述混合类型。
一个注视路径连续呈现视线的固定,因此,如何判断类型可成为在分析注视特性的过程中的重要基准。上述注视数据检测部110可以以如下基准来判断直线、旋转、集中及混合等注视类型。
图3为表示本发明实施例的注视类型中的直线类型的例的图表。图4为表示本发明实施例的注视类型中的旋转类型的例的图表。图5为表示本发明实施例的注视类型中的集中类型的例的图表。图6为表示本发明实施例的注视类型中的混合类型的例的图表。
如水平线、对角线、垂直线,上述直线类型的注视点具有直线动作,从而可以以线性角度接近水平(0度)、对角(45度)、垂直(90度)中的哪一角度为基准来判断。
上述旋转类型作为注视点向顺时针或逆时针方向旋转并移动,即使在一个区间内共存向顺时针和逆时针方向的旋转的情况下也存在相同的旋转,因此,可将注视类型判断为旋转类型。
上述集中类型的视线持续停留在一个地点,在此情况下,存在固定的注视点应停留固定于何种程度的范围内才可集中判断的问题。连续注视以视网膜中央凹为基准来进行判断,但集中类型可以以视网膜近窝区为基准来判断它的范围。上述集中类型具有呈现为点的情况和大量密集的情况,相对于其他注视类型,上述集中类型具有注视次数(时间)的偏差大的特征。
上述混合类型为多种注视类型重复出现的情况。例如,若水平由右侧和左侧来重复,则判断为水平,但若水平与对角或与其他类型重复,则判断为混合。
在获得针对空间的信息的过程中,随着时间的流逝,上述受试者自然地进行固定和移动,但由于在三分钟的实验时间内注视一个空间,从而确认到反复或集中的特性随着注视时间的经过而改变。为了分析随着注视时间的变化而按性别来改变的注视路径,如下表1所示,在本发明实验例中将注视时间以30秒钟为间隔来设置。并且,分析通过六个时间区间来注视的、根据时间来变化的性别注视路径的特性。
表1
上述第一注视类型频率掌握部130可针对上述多名受试者分别掌握通过上述注视类型判断部来判断的各注视类型的频率。图7的(a)部分为根据本发明实施例来表示性别频率特性的图表。
在如上设定的时间区间(Ⅰ、Ⅱ、Ⅲ、Ⅳ、Ⅴ、Ⅵ)内,受试者根据从实验条件所赋予的目的性来对地铁大厅空间进行信息探索,以下,以男性的时间区间Ⅰ为对象分析注视特性。如下述表2所记载,存在呈现出较多的注视类型,但也存在注视类型不存在的情况。
表2
在本发明的实验例中,通过表明哪一注视类型最具优势,从而分析最留心注视的注视类型的特性。注视最多的受试者为18号(15次),注视最少的受试者为30号(1次)。
上述第一注视类型比例转换部140可将通过上述第一注视类型频率掌握部130所掌握的注视类型的频率分别转换为比例。图7的(b)部分为根据本发明实施例来表示性别比例特性的图表。
下述表3为示出将按上述表2所示的受试者的注视类型的频率转换成比例的表。
表3
如上述表3所记载,可确认混合类型最具优势,其次集中类型具有优势。
下述表4为用数量算出上述表3的优势区域的表。
表4
类型 | 集中 | 水平 | 上下 | 对角 | 旋转 | 混合 | 小计 |
Ⅰ区间 | 6.0 | 1.5 | 0.0 | 1.5 | 1.5 | 10.5 | 21.0 |
比例(%) | 28.6 | 7.1 | 0.0 | 7.1 | 7.1 | 50.0 | 100.0 |
在本发明的实验例中,将优势区域的频率计算如下,即,针对一名受试者最具优势的一个区域计算为“1”,若以重复在多个区域的方式出现,则计算为“1/n”。相对于在上述表2中,注视数量最高的混合类型和集中类型的比例为37.1:20.8,若参照将上述表3的优势区域整理成频率的表4,则可确认比例为50.0:28.6。即,相对于以表2的频率来比较注视特性,可确认,如上述表4,通过抽取优势区域之后按比例来比较的方法可发生较大差异。若以上述受试者的注视数量来比较特性,则相对于特定受试者的较高注视类型的频率对整体倾向产生的影响,在与优势区域相比较的情况下,由于针对各受试者的优势区域的整体特性被整理,因此,在以受试者整体的倾向来分析的情况下,通过上述表3,以如上述表4的比例分析更加有效。
上述第二注视类型频率掌握部150可根据上述受试者的性别来掌握通过上述第一注视类型频率掌握部130所掌握的各注视类型的频率。并且,上述第二注视类型频率掌握部150可分别提供针对男性受试者的注视类型频率和针对女性受试者的注视类型频率之间的差异值和大小结果。
可基于频率和比例来分析性别特性,在下述表5示出以时间区间Ⅰ为对象的针对六个注视类型的频率特性。
表5
参照上述表5,时间区间Ⅰ为初次进行注视的0~30秒区间。初次注视空间的时间可能因初起效果而存在性别差异,但在本发明的实验例中被排除在分析对象之外。针对最高的注视类型,男性呈现为混合类型和集中类型,女性呈现为集中类型和混合类型,从而显示为与性别的注视类型相反的特征。表5按不同的注视类型来整理整体受试者的平均,在水平、上下、混合类型中几乎没有根据性别的差异,此外,在集中、对角、旋转类型中女性呈现出优势频率。即,若察看基于频率的特性分析,则与男性相比,女性表现出更高的集中类型,且在对角和旋转类型中可整理出具有优势的特性。与此相比,在水平、上下、混合类型中没有差异。
上述第二注视类型比例转换部160可将通过上述第二注视类型频率掌握部150来掌握的注视类型的频率分别转换成比例。
下述表6为以上述整体受试者的注视频率数据为对象来呈现0~30秒的时间区间的不同类型比例的表。
表6
基于如上所述的频率进行的分析为可知绝对频率的指标,在个别评价中可掌握特性,但对于相互比较性别而言,可能基于比例的相对评价更加有效。参照上述表6,可分析为在对角类型中男女类似,而在集中和旋转类型中女性占据优势,在水平、上下级及混合类型中具有男性占据优势的倾向。尤其,在集中类型中的女性优势(8.22%)和在混合类型中的男性优势(6.59%)显示出根据性别的差异特性。即,可知,与女性相比,男性在注视空间的过程中,更多进行混合类型的注视,反面,与男性相比,女性具有较高集中类型的注视倾向。
在分别通过上述第二注视类型频率掌握部150来掌握的多个注视类型中,上述注视类型抽取部170抽取具有最大频率的优势频率,并可分别按照不同的注视时间的区间(Ⅰ、Ⅱ、Ⅲ、Ⅳ、Ⅴ、Ⅵ)来抽取。并且,上述注视类型抽取部170可分别提供针对男性受试者抽取的注视类型的优势频率和针对女性受试者抽取的注视类型的优势频率之间的差值和大小结果。
下述表7为表示根据注视时间区间变化的男性的不同注视类型的优势区域特性的表。图8的(a)部分为根据本发明实施例来表示针对男性的注视类型的优势频率变化特性的图表。
表7
参照上述表7,若按照注视时间的变化来察看男性的注视类型,则可确认,则最具优势的混合类型的注视的情况下,可确认具有在Ⅰ区间变高,但在Ⅱ~Ⅳ区间降低,且重新在Ⅴ区间变高之后,在Ⅵ中降低的倾向。与此相比,可确认,具有第二高的集中类型同样在Ⅰ~Ⅳ区间具有优势,并从Ⅴ区间升高,而在此外的类型中上升或下降至Ⅳ区间之后,并从Ⅴ区间开始下降的特征。
下述表8为表示根据注视时间区间变化的女性的不同注视类型优势区域特性的表。
表8
参照上述表8,在初次注视中混合类型占据优势,且集中类型多的特性与男性相同,但在Ⅳ区间中,发生混合和集中类型逆转的现象。即,可知,从Ⅳ区间(90~120秒)开始,集中类型大幅度增加,且混合类型大幅度降低。随着时间的流逝,集中类型的增加与男性相同,但在混合类型中男性却持续增加。与此相比,可将在混合类型中女性降低的特征视为性别特征。作为其他特征,女性对旋转类型的注视相对男性高,尤其,在Ⅱ区间(5.8)呈现得较高,这与男性(1.7)形成对比。
若在如上所述的内容中比较性别特征,则相对于男性,女性在混合类型的Ⅰ~Ⅲ区间中严重弯曲,且从Ⅳ区间开始减少,相比之下,男性表现出均匀的优势倾向,并在Ⅴ区间增加。与此相比,在优势第二高的集中类型中的特征在于,女性持续增加之后在Ⅵ区间减少,相反,男性在Ⅴ区间之后增加。并且,男性在混合类型和集中类型中维持第一、第二位,但女性在Ⅳ区间逆转。即,可知,女性从90~120秒范围开始集中注视特定地方,相比之下,男性从一开始直到实验结束的时间范围内,继续进行用于探索空间的混合类型的注视。
下述表9为表示不同注视类型的优势频率的表。图8的(b)部分为根据本发明实施例来比较性别优势注视类型的图表。
表9
若察看在整个注视时间内的性别优势区域,则可知,男性强于混合类型,女性强于集中类型,在此外的注视类型中性别差异甚微。
另一方面,上述表9呈现优势区域频率的性别特性,将在时间区间中呈现注视频率最多的情况判断为具有优势。男性对女性的性别注视次数为58.0:71.9。而且,相对于男性的使用时间2.02秒,女性的时间为极短的1.39秒。即,男性具有注视次数少,相反,注视所使用的时间相对较长的特性。若将上述特性与性别优势特性相关联来综合分析,则男性在混合类型一次注视中进行长时间的用于获得空间信息的注视活动,相反,可以视为女性具有通过集中类型的注视来较短或较长地获得针对空间信息的注视特性。
本发明的实验例针对在上述表7及表8的六个注视类型中,以最具特色的混合、集中、旋转类型为对象,在图8的(b)部分进行了性别比较。可知,不同性别的注视类型随着时间变化的特征。
首先,察看混合类型,上述混合类型以Ⅲ为转折点来呈现出豁然不同的注视特性,且集中类型虽然在开始时间范围内类似,但随着时间的经过发生性别差距,而在Ⅵ区间中重新集中。旋转类型至Ⅱ区间发生相互差距,但在Ⅲ区间随着频率的逆转,而具有降低的倾向。注视路径作为探索空间并获得信息的类型,上述注视路径的特征在于,基于性别的空间信息探索与时间的经过一同呈现出不同。这种注视类型可以视为基于性别的感觉特性,且在说明计划空间或者掌握空间信息的特性的过程中,上述注视类型可以成为客观性根据资料。
以上说明的内容仅为用于实施基于本发明的性别注视特性分析系统的实施例,本发明并不局限于上述实施例,如以下发明要求保护范围所申请,在不脱离本发明的主旨的范围内由任何本发明所属技术领域的普通技术人员进行的多种变更实施均属于本发明的技术思想。
Claims (5)
1.一种性别注视特性分析系统,用于分析基于人体视觉活动的性别注视特性,其特征在于,包括:
注视数据检测部,以多名受试者为对象,在规定时间内通过对图像空间的视线追踪来检测多个注视点和针对上述注视点的多个移动路径;
注视类型判断部,用于将通过上述注视数据检测部来检测的注视点的移动路径分别判断为预设的多个注视类型中的一个并进行分类;
第一注视类型频率掌握部,针对上述多名受试者分别掌握通过上述注视类型判断部来判断的各注视类型的频率;
第一注视类型比例转换部,用于将通过上述第一注视类型频率掌握部所掌握的注视类型的频率分别转换成比例;
第二注视类型频率掌握部,根据上述受试者的性别来掌握通过上述第一注视类型频率掌握部所掌握的各注视类型的频率;
第二注视类型比例转换部,用于将通过上述第二注视类型频率掌握部所掌握的注视类型的频率分别转换成比例;以及
注视类型抽取部,在分别通过上述第二注视类型频率掌握部来掌握的多个注视类型中抽取具有最大频率的优势频率,并分别按照不同的注视时间区间来抽取。
2.根据权利要求1所述的性别注视特性分析系统,其特征在于,
在针对上述图像空间内特定对象的上述受试者的视线在角度为2度的视网膜中央凹的范围内维持0.1秒以上的情况下,上述注视数据检测部将这种情况检测为一个注视点,在上述受试者的视线脱离上述图像空间范围的情况下,上述注视数据检测部将这种情况识别为注视点的一个移动路径结束。
3.根据权利要求1所述的性别注视特性分析系统,其特征在于,
上述注视类型判断部将针对上述受试者注视点的移动路径判断为直线类型、旋转类型、集中类型及混合类型中的一种类型,
在角度为3度至6度的视网膜近窝区的范围内检测到针对上述受试者注视点的移动路径的情况下,上述注视类型判断部将上述受试者注视点的移动路径判断为上述集中类型,
在针对上述受试者注视点的移动路径由上述直线类型、上述旋转类型及上述集中类型中的两种以上类型重复的情况下,上述注视类型判断部将上述受试者注视点的移动路径判断为上述混合类型。
4.根据权利要求1所述的性别注视特性分析系统,其特征在于,上述第二注视类型频率掌握部分别提供针对男性受试者的注视类型频率和针对女性受试者的注视类型频率之间的差值和大小结果。
5.根据权利要求1所述的性别注视特性分析系统,其特征在于,上述注视类型抽取部分别提供针对男性受试者抽取的注视类型的优势频率和针对女性受试者抽取的注视类型的优势频率之间的差值和大小结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511009207.6A CN106923908B (zh) | 2015-12-29 | 2015-12-29 | 性别注视特性分析系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511009207.6A CN106923908B (zh) | 2015-12-29 | 2015-12-29 | 性别注视特性分析系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106923908A CN106923908A (zh) | 2017-07-07 |
CN106923908B true CN106923908B (zh) | 2021-09-24 |
Family
ID=59459399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201511009207.6A Active CN106923908B (zh) | 2015-12-29 | 2015-12-29 | 性别注视特性分析系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106923908B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112883767B (zh) * | 2019-11-29 | 2024-03-12 | Oppo广东移动通信有限公司 | 眼跳图像的处理方法及相关产品 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7963652B2 (en) * | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
JP5036814B2 (ja) * | 2006-06-11 | 2012-09-26 | ボルボ テクノロジー コーポレイション | 視覚的関心場所の決定および分析のための方法および装置 |
CN101172034A (zh) * | 2006-11-03 | 2008-05-07 | 上海迪康医学生物技术有限公司 | 一种眼球运动轨迹检测方法 |
US8790280B2 (en) * | 2007-06-27 | 2014-07-29 | Panasonic Corporation | Human state estimating device and method |
WO2010003410A1 (en) * | 2008-07-08 | 2010-01-14 | It-University Of Copenhagen | Eye gaze tracking |
WO2010026520A2 (en) * | 2008-09-03 | 2010-03-11 | Koninklijke Philips Electronics N.V. | Method of performing a gaze-based interaction between a user and an interactive display system |
WO2012055444A1 (en) * | 2010-10-29 | 2012-05-03 | IT-Universitetet i København | Method of determining reflections of light |
US9072523B2 (en) * | 2010-11-05 | 2015-07-07 | Ethicon Endo-Surgery, Inc. | Medical device with feature for sterile acceptance of non-sterile reusable component |
CN102184175A (zh) * | 2010-11-10 | 2011-09-14 | 湖北铂金智慧网络科技有限公司 | 在网络中用于分析访问者性别的方法 |
CN102496005A (zh) * | 2011-12-03 | 2012-06-13 | 辽宁科锐科技有限公司 | 基于眼球特征的审讯辅助研判分析系统 |
CN103211605B (zh) * | 2013-05-14 | 2015-02-18 | 重庆大学 | 一种心理测试系统及心理测试方法 |
CN103455800A (zh) * | 2013-09-09 | 2013-12-18 | 苏州大学 | 基于智能识别的广告系统及相应广告推送方法 |
CN103500011B (zh) * | 2013-10-08 | 2016-08-17 | 百度在线网络技术(北京)有限公司 | 眼动轨迹规律分析方法和装置 |
JP5825328B2 (ja) * | 2013-11-07 | 2015-12-02 | コニカミノルタ株式会社 | 透過型hmdを有する情報表示システム及び表示制御プログラム |
CN103761505A (zh) * | 2013-12-18 | 2014-04-30 | 微软公司 | 对象跟踪 |
-
2015
- 2015-12-29 CN CN201511009207.6A patent/CN106923908B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106923908A (zh) | 2017-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kosch et al. | Your eyes tell: Leveraging smooth pursuit for assessing cognitive workload | |
Shemesh et al. | Affective response to architecture–investigating human reaction to spaces with different geometry | |
Jyotsna et al. | Eye gaze as an indicator for stress level analysis in students | |
Shemesh et al. | A neurocognitive study of the emotional impact of geometrical criteria of architectural space | |
Zakaria et al. | Quantitative analysis of fall risk using TUG test | |
De Vignemont | A multimodal conception of bodily awareness | |
Coello et al. | The interrelation between peripersonal action space and interpersonal social space: psychophysiological evidence and clinical implications | |
Shemesh et al. | The emotional influence of different geometries in virtual spaces: A neurocognitive examination | |
JP6251412B2 (ja) | 不注意の測定装置、システム、及び方法 | |
Fino et al. | Comparing postural stability entropy analyses to differentiate fallers and non-fallers | |
Olugbade et al. | How can affect be detected and represented in technological support for physical rehabilitation? | |
Sharma et al. | Eye gaze techniques for human computer interaction: A research survey | |
Jang et al. | Identification of human implicit visual search intention based on eye movement and pupillary analysis | |
Saitis et al. | Multimodal classification of stressful environments in visually impaired mobility using EEG and peripheral biosignals | |
Park et al. | Unobtrusive and continuous monitoring of alcohol-impaired gait using smart shoes | |
Billones et al. | Digital eye strain and fatigue recognition using electrooculogram signals and ultrasonic distance measurements | |
Hunter et al. | Executive function as a mediating factor between visual acuity and postural stability in cognitively healthy adults and adults with Alzheimer’s dementia | |
Wibble et al. | Intensified visual clutter induces increased sympathetic signalling, poorer postural control, and faster torsional eye movements during visual rotation | |
CN106923908B (zh) | 性别注视特性分析系统 | |
Calandra et al. | EYECU: an emotional eye tracker for cultural heritage support | |
Augereau et al. | Mental state analysis on eyewear | |
US11402908B2 (en) | Apparatus and method for selecting item using brain wave | |
Chynał et al. | Application of thermal imaging camera in eye tracking evaluation | |
Kiprijanovska et al. | Smart Glasses for Gait Analysis of Parkinson’s Disease Patients | |
Florea et al. | Computer vision for cognition: An eye focused perspective |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |