论文部分内容阅读
全空间(泛指“人-机-物”三元空间)信息是描述三元空间中复杂时空现象的各种信息的集合,是时空大数据的主要内容,也是空间智能计算和平台建设的基础。所谓一图胜千言,可视化是将信息转变为人类可理解形式的主要手段之一,特别是当隐含在数据中的线索被突显后,以符号化和沉浸式融合的形式进行表达,并结合人类的视觉和领域知识,可将大量异构数据转变为有价值的知识,这是当前智慧城市平台建设亟需突破的难题之一,也是人们提升空间思维的重要需求。然而,全空间信息具有多源、异质、多维和复杂关联等特点,使得其可视化面临针对不同用户进行易感知呈现的难题(即“看不见、看不清、看不懂”)。为此,本文在总结现有视觉变量和地理可视化理论研究的基础上,针对多模态时空数据自适应可视化与分析需求,深入研究了如何对多模态时空数据进行结构优化,构建符合人类认知规律的增强现实场景,将高维时空数据进行易感知呈现的全空间增强现实可视化方法,充分顾及符合人类认知规律的多层次语义视觉变量约束,旨在突破符号化与沉浸式可视化过程中的视觉超载与视觉混乱瓶颈,实现“连续与离散、动态与静态、精细与概略、真实感与抽象”相宜的自适应可视化。具体研究内容如下:(1)全空间增强现实可视化的内涵。人机物三元空间紧密耦合,全空间(泛指人机物三元空间)信息是描述三元空间中复杂时空现象的各种信息的集合,包括各种有形或无形的实体及其状态、属性、行为和关联关系等。如何对全空间信息进行互增强表达和易感知呈现,必须对全空间信息进行有效融合,构建具有统一描述的多粒度时空对象场景模型;对全空间增强现实可视化任务的分类、描述等进行了定义;在此基础上构建全空间增强现实可视化方法和基于视觉变量系统的符号模型描述。(2)多层次语义视觉变量体系。视觉变量被用于将信息转化为人类视觉系统所能感知的形式,其发展经历了从传统的“地图变量”到“GIS变量”再到“泛地图可视化变量”,从“二维、静态变量”到“三维、动态变量”再到“多形式混合的复合型变量”。已有视觉变量的研究侧重于“信息-图形映射”的方法,即感知层面,而缺乏考虑对"重要性"和"不重要性"的平衡所衍生出的“智能”,即对信息和可视化任务的语义理解,难以满足人机物三元空间融合的全空间多粒度时空对象场景增强现实表达。本文在现有视觉变量研究的基础上,分析其特点并构建了具有高度概括性和可扩展性的多层次语义视觉变量体系,增强了视觉变量表达信息的能力,使其支持复杂信息场景多样化表达的需求。(3)任务驱动的多层次聚焦可视化机制。聚焦+上下文(Focus+Context,F+C)是可视化中解决信息过载的重要方法,现有的F+C可视化方法研究主要针对特定数据结构或视图形式,缺乏对聚焦深层次原因的理解和抽象,而全空间增强现实可视化针对的信息多源、异构,可视化任务、形式、视图和用户具有广泛性、多样性和复杂性,使得现有的F+C可视化方法难以应对这样的需求。为此,本文深入分析了聚焦的本质,将其纳为三个核心因子的作用:感兴趣程度(Degree of interest,Do I)、细节层次(Level of details,Lo D)和抽象程度(Degree of abstraction,Do A),分别从任务、数据和感知三个层面控制聚焦的程度,通过其变化来控制场景对象/实体/数据“易感知”程度,并配合适宜的可视化表达形式,从而达到平衡视觉信息负载、提高视觉引导性和增强信息视觉传递效率的目的。并引入基于眼动追踪的评价方法,突破传统地理可视化由主观因素主导,难以客观量化调节可视化参数的难题。(4)原型系统及实验分析。面向智慧城市全空间增强现实决策支持,设计研发了多终端-多视图协同的全空间增强现实可视化原型系统,以高层建筑火灾应急指挥为例进行了实验验证。通过眼动试验证明了本文提出的语义视觉变量与聚焦可视化机制在市域全局灾情态势感知-区县现场指挥-受灾场所灭火救援等多层次可视化任务中的有效性,受试者感兴趣区域注意力吸引效率和关注程度明显提升。