论文部分内容阅读
人类要实现与动态环境的互动,必须具备从新异角度识别物体或场景的能力。研究者们对人类视觉系统的这种能力做了大量研究得出了两种基本的认知理论模型—-结构描述模型(Structural description models)和基于视图的模型(View-based models)。视图合并(view combination)是在基于视图的模型的众多理论中,从计算的角度研究的理论观点之一。它是指:通过合并记忆中表征的物体视图而对新异视图的识别产生概化(generalization)的加工过程。视图合并的观点认为,一个物体的新异视图能够被成功识别的难易程度依赖于它和脑内一系列多种贮存视图的结构相似程度。研究者在物体识别领域已经开展了大量视图合并理论的实证研究,并得出视图合并的强度会受到先前经历的两个视图的相似程度、两视图呈现的时空连续性、遮挡等各种因素的影响的结论。而在场景识别中,有关视图合并的研究则相对缺乏。本研究在改进Friedman (2008)年实验范式的基础上,利用虚拟现实技术创设出类似Diwardker实验中真实圆桌场景的高仿真虚拟现实场景考察了经历两角度学习后的视图合并内在加工机制。由于场景中包含了各种复杂信息,我们通过分离场景中不同空间属性(位置信息和特征信息)进一步考察各自对视图合并的影响。三个实验均由两个阶段组成:训练阶段和测试阶段。在这两个阶段中,被试的任务均为场景识别任务,即判断屏幕呈现的布局是否为实验默认的正确布局。所不同的是在训练阶段,目标布局或者干扰布局会从两个相隔75°的角度呈现(我们称0°对应的视图和75°对应的视图为训练视图),并且由于被试没有被告知确切的正确场景,因此被试只能通过实验提供的反馈信息猜测学习正确布局。在测试阶段,正确布局或者错误布局从五个相隔37.5°的角度呈现(其中包括0°、75°训练视图,37.5°内插视图、112.5°外插视图、150°远视图),且测试阶段不提供反馈信息。实验1主要自变量为测试视图类型(训练视图、内插视图、外插视图、远视图)和干扰布局类型(移动位置、互换位置),因变量为正确反应的反应时和错误率。结果发现在反应时上,被试对内插视图的识别速度快于其他视图,对训练视图的识别速度也快于外插视图和远视图。在错误率上,特征信息条件呈现的行为模式同反应时;在移动位置条件下,内插视图的错误率高于其他视图。移动位置条件下反应时和错误率产生不同模式的原因在讨论中做了详细阐述。实验2目的为考察场景中不同空间属性对视图合并加工机制的影响。我们将场景重新设置为两种类型:包含位置信息的场景(相同的杯子组成的不规则布局,对应的干扰布局为移动一个杯子的位置)和包含特征信息的场景(不同杯子组成的不规则布局,对应的干扰布局为互换两个杯子的位置)。主要自变量为测试视图类型(训练视图、内插视图、外插视图、远视图)和场景包含的空间属性类型(位置信息、特征信息)。结果发现在反应时上,两个因素的主效应均显著,交互作用也显著。在位置信息条件下,被试对内插视图的反应时高于训练视图,低于外插视图;而在特征信息条件下,被试对内插视图和训练视图的反应时一样快,均低于外插视图。在本实验中,错误率和反应时的行为模式基本相同。实验3进一步考查动态线索对两种空间属性信息视图合并的影响。实验设置同实验2,不同的是在每组训练阶段的开始,场景从一个角度呈现3s后,黑布遮住布局,然后以75°/s的角速度旋转1s到另外一个角度,同时黑布撤走,布局再次呈现3s让被试观察。结果发现,在位置信息条件下,无论在反应时还是错误率上,被试对内插视图的识别成绩同训练视图一样好,并且都好于外插视图和远视图。特征信息条件下的识别模式基本类似于位置信息条件。本研究的三个实验结果均支持了场景识别的视图合并机制观点。为了深入了解视图合并内在机制的特点,我们引入了空间属性、运动线索两个因素,通过将场景包含的复杂信息类别化、单一化,细致考察空间属性对视图合并的影响方式。结果发现,视图合并在特征信息条件下的视图合并效果普遍好于位置信息条件下的视图合并效果。通过在训练初始阶段加入一段动态效果,结果表明动态旋转过程能在一定程度上提高了场景表征的整体抽象水平,易化了特征信息的视图合并加工,而对位置信息没有明显影响。这说明两种空间属性信息对视图合并的影响方式存在本质差异。