眼动研究范式: 视觉搜索研究
在《眼动研究范式》系列文章中,我们已经向大家介绍了三个典型的范式或研究类型:
-
空白重叠范式
-
自然阅读范式
-
购物决策研究
依托这些被广泛应用的具体案例,我们共同分享了在Tobii Pro Lab中编制实验、收集数据、导出指标的科研实践经验。在这六篇推文中,我们已经涵盖了大部分传统的,基于屏幕式实验项目展开的实验程序编制和数据预处理过程,知识结构如下:
大家可以通过点击相应文章获取到自己想要了解的知识和技能。
在本期推文中,我们将依托一个传统的研究范式,「视觉搜索范式」共同分享传统屏幕式研究中几个关键的技能:
-
视线触发器(Gaze Trigger):能够根据被试的眼动行为操控实验程序;
-
键盘事件记录:导出被试的按键反应;
-
兴趣区的合并(Aggregated AOIs):在数据导出中创建AOI合集,优化数据导出格式。
视觉搜索(Visual Search)指通过观察、利用视觉信息从众多事物中找到某一目标。这是人和动物赖以生存的关键能力之一。对于视觉搜索过程及其认知机制的研究有助于人们发现影响搜索效率的因素,从而有针对性地制定视觉搜索训练计划,提高搜索准确性和搜索速度(潘静. 等., 2020)。该范式是注意研究的经典范式。通常采取在被试搜索目标的同时呈现分心物的研究方法(陈艾睿. 等., 2017)。
在传统的视觉搜索研究中,研究者通常使用正确率和反应时两个基于被试外显行为的指标作为研究的因变量。如果被试在某一条件下的正确率较高,反应时较低,就说明该水平相对于其他水平促进了个体的视觉搜索效率。如两者变动的方向不一致,例如正确率较低的同时,反应时也较低,则可能反映了该条件下有某种因素驱使被试做出了更仓促的判断。正确率+反应时所呈现的四种可能的结果(2 x 2),能够为心理学家和行为学家带来很多启示和可供讨论的数据依据。这是传统视觉搜索研究中的一般逻辑。
但单纯采用外显行为数据可能带来一系列潜在的问题。王福兴等人(2015)开展了一项幼儿对威胁性刺激蛇的注意觉察研究。作者等人论述到:
“……从行为反应结果(按键)来看,成人研究确实发现威胁性刺激觉察要快于非威胁性刺激。但是,也有研究者认为,这种按键反应时差异可能反映的是对威胁性刺激的快速行动而不是快速觉察。所以,采用眼动来了解威胁性蛇的视觉搜索对于揭示是否被试真的在视觉搜索阶段就表现出更快的注意定向具有重要意义。……”
关于这项研究,王福兴老师在Tobii Pro主办的「眼动追踪&发展心理学」专题讲座中,有专门的论述,感兴趣的朋友可以了解一下👉 https://qmt.h5.xeknow.com/sl/4cpoJi。
无独有偶,2021年,黄月胜等人开展了一项研究,对无关工作记忆表征的负性情绪信息与视觉注意的关系做了深入的探索。他们论述到:
“……此外,以往研究表明,反应时作为一系列认知加工之后的行为输出结果,容易受到认知控制因素的影响,从而会掩盖甚至改变视觉搜索早期阶段所观察到的注意捕获效应,而首次注视点百分率可以较为敏感的检测到视觉搜索早期阶段工作记忆表征对视觉注意的捕获。……”
这种对传统反应时和正确率指标的担忧和质疑,随着人们对基础视觉机制和注意机制的深入研究,正变得越来越广泛。基于不同领域研究者想要分离出的心理过程的不同,他们总是会担心,反应时指标中糅杂进了不需要的那些心理过程。这一担忧也正是减法反应时诞生时的“初心”。作为科学研究者,我们总是希望能够更好地分离自变量的控制,更精准地测量因变量的变化。正如同前段时间一位客户与笔者交流时所提出的要求:
“我要的是更‘Raw’更底层的数据,我们有自己处理数据的方法。”
相对于传统的反应时指标,眼动行为处于认知功能的底层。由此,眼动数据能够带给科学研究者不一样的启示。一个最简单的道理是这样的,在个体看到,加工某一个对象后,距离做出反应仍有时间间隔,此时眼动追踪技术就能够帮助排除或衡量这中间更细致的心理过程。
下面,我们就共同分享视觉搜索范式在专业的眼动追踪实验设计、数据处理和分析平台-Tobii Pro Lab中,是如何完成的。
3.1 实验设计
采用一个2x3的被试内实验设计。
其中,自变量有:
-
图片类型(1 vs 2 vs 3)
-
搜索难度(简单 vs 复杂)
因变量有:
-
外显行为因变量:
-
搜索正确率;
-
搜索反应时;
-
眼动行为因变量:
-
平均注视次数(Average Number of Fixations);
-
平均注视时长(Average Duration of Fixations);
3.2 实验材料
所有刺激材料均以图片形式呈现。校准程序和指导语的背景为灰色(125, 125, 125),校准点为白色(255, 255, 255),指导语文字颜色为黑色(0, 0, 0)。实验的刺激材料由3张咖啡豆的图片编辑而来,其中每张图片中有一个嘴唇,分为简单和复杂2个搜索难度。共6张刺激材料。下面两张图呈现了同一张图片下两种搜索难度的示例。
3.3 实验流程
为减少额外变量带来的影响,指导语后,在呈现每张刺激图片时,都要呈现一个注视点。以使被试开始视觉搜索时,眼动行为的中心处于同一个固定位置(即屏幕的正中心)。为确保这一点,直到被试连续注视中心注视点800ms以上时,才会从注视点跳转至实验刺激图片。
指导语提示被试在咖啡豆中寻找一个人的嘴唇,如果看到,按下键盘上的“F”键,如看不到,按下键盘上的“J”键。一旦被试做出选择,或搜索时间超过20s仍无反应,则跳转至下一个试次。6张实验刺激图片的呈现顺序完全随机。
4.1 实验设备和环境
使用Tobii Pro Fusion(250hz)眼动仪收集数据,实验设置详见:《眼动研究范式:自然阅读范式(下)》。动仪的采样率为250Hz,准确度为0.3°,精确度为0.04°。作为Tobii Pro的新一代便携式科研级眼动追踪设备,Tobii Pro特有的多红外光源+多眼动传感器+三维眼球模型组成的「头动补偿算法」能够允许被试在一定范围内自然头动时,仍能保持数据的精确度和准确度。能够在保证被试的舒适性的同时,提高实验结果的生态效度。
4.2 在Tobii Pro Lab中编制实验程序
在Tobii Pro Lab中,我们主要使用组(Group)和组行为(Group Action)来控制刺激物的随机和循环呈现。还不熟悉的朋友赶快戳《眼动研究范式:空白重叠范式(下)》学起来吧。
关于如何在刺激物中标记自变量的各个水平,要用到的是刺激物变量(Stimulus variables)工具,请参考:《眼动研究范式:购物决策研究(下)》。
下面两图中展示了实验项目在Tobii Pro Lab中可操作化基本结构,读者只需要按照架构中的各种参数拖拽,填充刺激材料、配置参数即可完成对实验项目的编制。
4.3 视线触发器(Gaze Trigger)工具的应用
如前所述,在视觉搜索范式中,确保被试在每个试次中从一个固定的位置开始搜索,能够最大程度地减少额外变量。在Tobii Pro Lab中,视线触发器工具能够满足这一需求。如选择了该选项,只要被试注视某一区域超过一定时间就会跳转至时间线上的下一个元素。
当您在Advance on选项中选择“Gaze”时,会有两个参数供您输入,首先是Trigger预设时间,它的意思是,当被试注视这一区域达到预设时间值时,会触发切换到下一个元素的动作。
而Data loss reset则是指在触发区域被激活后,达到Trigger预设时间前,如果发生了大于X ms的数据丢失,那么Trigger的时间将从0重新计算。通过这样的设置,您可以切实保证被试在开始下一试次前,是盯着屏幕的中心区域的。
在点选了“Gaze”后,刺激物编辑界面会出现一个虚线组成的矩形,通过调整它的大小,就可以控制Trigger触发区域的范围。
本研究关注被试是否注意到隐藏在分心刺激中的目标刺激,因此需要使用兴趣区统计被试的观察结果。这就要求研究者对每一个刺激材料划分兴趣区。由于我们关注的是在每一个目标刺激上的眼动行为,因此,为每一张图片中的“嘴唇”画上兴趣区即可。
如何使用AOI Tool绘制兴趣区,请参见《眼动研究范式:购物决策研究(上)》;
兴趣区到底应该画多大才合适,请参见《眼动研究范式:购物决策研究(下)》;
由前述因变量的阐述可知,我们要导出的指标有:
-
被试的按键反应时;
-
按键正确率;
-
对目标AOI的平均注视持续时间;
-
对目标AOI的注视次数;
6.1 数据格式及指标选择
因此首先在Tobii Pro Lab中的“Analyze – Metrics Export”页面中,在右上方的“Export format”中选择“Interval-based TSV file”。
在右边的指标选择主页面中,除了“General”大类外,全选“Interval metrics”、“Event metrics”还有“AOI fixation metrics”中的平均注视时常和注视次数。
为了避免导出的数据变得冗杂,我们需要在导出时做出一些额外设置,首先是TOI设置。在Tobii Pro Lab中,TOI允许用户设定感兴趣的时间区域,从而将一些不需要统计数据的实验流程排除在数据分析之外。具体的原理和操作请见:《眼动研究范式:购物决策研究(下)》。
在本示例项目中,首先看到导出指标界面的右侧,“Times of interest”,我们只需要导出基于6个刺激物的数据,因而只勾选6个刺激物的呈现时间段。
6.2 合并兴趣区(Aggregated AOIs)工具的应用
在这种导出格式下,每一个刺激材料下的AOI都会作为一列出现在数据中,导致表格变得冗长,直观性和可操作性较差。因而要用到“Aggregated AOIs”功能,合并本质上同类的AOI,简化导出的数据格式。
可以看到, Pro Lab默认将每一个刺激材料的AOI作为一列。
要合并AOI,请遵循以下步骤:
(1)在右侧设置选项卡的底部找到“Aggregated AOIs”,点击下面的加号按钮,创建一个AOI合集。
(2)在弹出的对话框中,为AOI合集命名。并通过先前设定的AOI tags或AOI Groups规定哪些AOI处于这个合集下。
(3)单击对话框左下方的“Create”创建AOI合集。
使用这种方式导出的数据,能够保证数据完整,结构简单,易于分析。
6.3 行为指标测算
除平均注视时长(Average Duration of Fixations, ADF)和注视次数(Number of Fixations, NF)两个眼动指标以外,我们还需要被试的两个行为数据:
正确率,通过按键反应测算,由于每个刺激材料中都呈现了目标,因此“F”为正确答案,在被试Alex的6次反应中,只有一次超时未反应,因此正确率为5 / 6 * 100% = 83.3%。
反应时,通过每个刺激呈现的时间,也就是“Duration of interval”来测算,排除掉一个超时未的试次,被试Alex的平均反应时为1871.8ms。
在导出这样格式的数据后,您可以使用其他数据处理软件例如SPSS、R、Python和Matlab等对数据做进一步的描述和推断统计。
本期推文中,依托视觉搜索范式,我们共同学习了:
-
使用视线触发器根据被试的眼动行为操控实验程序,保证注视点落在某一处;
-
通过键盘事件记录功能导出被试的按键反应;
-
使用合并兴趣区在数据导出中创建AOI合集,优化数据导出格式。
8.1 Tobii Pro Lab 试用版下载
链接: https://pan.baidu.com/s/1mqhlJJATxsLnciYmxdUNlg
密码: cim4
8.2 项目文件和材料下载
同上
8.3 相关知识资料链接
产品介绍 || Tobii Pro Fusion科研便携级眼动仪
参考文献:
-
陈艾睿, 唐晓雨, 王爱君, 张明. (2017). 视觉注意离散性的实验范式. 心理科学进展, 25(6), 923-932.
-
黄月胜, 张豹, 范兴华, 黄杰. (2021). 无关工作记忆表征的负性情绪信息能否捕获视觉注意?一项眼动研究. 心理学报, 53(1), 26-37.
-
潘静, 张慧远, 陈东濠,徐宏格. (2020). 动,静态视觉信息在真实世界视觉搜索中的作用. 心理科学进展, 28(8),1219-1231.
-
王福兴, 李文静, 颜志强, 段朝辉,李卉. (2015). 幼儿对威胁性刺激蛇的注意觉察:来自眼动证据. 心理学报. 47(6).774-786.