基于模糊灰色认知图的复杂战场智能态势感知建模方法

来源 :兵工学报 | 被引量 : 0次 | 上传用户:l420303622163com
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
针对复杂战场环境的动态、不确定性特征,提出一种基于模糊灰色认知图(FGCM)的智能态势感知建模方法。基于态势感知理论,采用自上而下任务驱动的态势觉察方式实现态势元素的提取;以目标威胁评估为态势理解的建模对象,利用FGCM在不确定数据表达和推理的模型特性,同时引入外部环境控制节点建立威胁评估动态模糊灰度认知图模型。以目标意图预测为态势预测的建模对象,在基于专家知识建立的FGCM模型结构基础上,采用粒子群优化算法提高了意图预测模型对历史数据样本的参数学习能力。通过仿真验证分析表明,基于FGCM的智能态势感知建模方法能够较好的应对动态、不确定的战场环境,发挥知识和数据在建模中的综合作用。
其他文献
能源对于整个人类的发展来说,是人类生存的基本要素之一,对经济发展和科技创新来说,是非常重要的物资资源,我们现在依靠的资源主要有石油、天然气以及煤炭等,但是这些能源在燃烧过程中会产生大量对环境和人体不利的气体,比如二氧化硫和二氧化碳,从而导致全球变暖,环境恶化。因此,无论是站在能源可持续发展的角度,还是站在国家发展以及人类生存的角度,寻找清洁能源迫在眉睫。目前,风能是最经济可行以及技术最成熟的清洁能
基于雷达的人体目标识别技术在诸多领域有着重要的应用。涡旋电磁波中携带有轨道角动量,在运动目标回波中会引起线多普勒和角多普勒效应,可为识别提供更丰富的信息。但与线多普勒相比,角多普勒较微弱,二者难以被分离。该文使用多发多收模型产生线性调频涡旋电磁波,通过双模态回波干涉抑制线多普勒。再利用短时傅里叶变换,获得双模态回波的线多普勒和角多普勒时频图,将时频图的幅度值输入到双通道卷积神经网络模型中,获得分类
为提高越野环境中目标检测和跟踪的准确率和效率,提出一种基于人机交互的免锚检测和跟踪系统。该系统由检测系统、指挥系统和目标跟踪系统组成。检测系统方面,在基于点的点云特征提取框架的基础上,设计一种免锚的目标检测网络结构;指挥系统通过相机实时获取环境态势信息,人机交互地在检测网络输出的目标序列中选择跟踪目标;跟踪系统利用检测网络输出的目标序列的外观模型和指挥系统下发的跟踪目标外观模型进行匹配来确定跟踪目
兵力部署与任务分配是无人集群防御作战的重要过程,有效利用集群中有限的兵力并发挥出最高的作战效能对提高无人集群的作战胜率至关重要。同时,进行高效的作战任务分配能够协调集群一致性并更好完成作战任务。针对无人集群防御作战中的关键作战方案,研究无人集群防御作战的兵力部署及协同任务分配优化问题。构建基于智能体技术的无人集群防御作战模型,量化无人集群兵力部署所需的关键参数,对作战区域与兵力进行了规划,设计了目
目标毁伤效果评估能够为作战决策提供可信依据,是联合作战不可或缺的关键环节。结合贝叶斯网络与云模型形成云贝叶斯网络,建立基于云贝叶斯网络的预警雷达毁伤效果评估模型,并对各类指标体系变量进行云模型转换;针对传统专家经验法推导条件概率的缺陷,采用证据理论与层次分析法确定各节点的条件概率值;将变量输入云贝叶斯网络,推理得到预警雷达属于各个毁伤等级的概率,运用于对敌反导体系预警雷达系统实施攻击的仿真计算中,
面向陆地战场上对反无人机侦察的现实需求,提出一种基于国产嵌入式智能计算平台的无人机检测方法。针对无人机体型小、易受战场环境影响而不易察觉的难题,采用红外、可见光图像和视频流等多源输入进行目标检测;针对嵌入式平台算力和存储能力有限的特性,构建轻量化深度神经网络,通过将单次多盒检测器(SSD)中的特征提取网络替换为MobileNet进行模型优化;选用国产嵌入式平台比特大陆SE5智能计算盒进行验证,完成
车载电源作为军队武器装备作训和应急的主要电能来源,其微小故障的准确诊断可有效预防严重故障的发生。然而实际监测数据往往存在冗余,且微小故障征兆难以有效提取,针对此提出一种基于递归特征消除(RFE)与栈式自编码神经网络(SAE)相结合的微小故障智能诊断方法。利用REF算法对所采集的特征变量进行重要度排序,以消除冗余并优选构建故障特征子集;再以该特征子集作为SAE深度网络的输入,微小故障类别作为输出,从
非球形破片的弹道轨迹与其在超声速至亚声速范围内的阻力系数密切相关。非球形破片弹道飞行时会发生随机翻转,阻力系数也会随着破片姿态的变化而改变。为了从有限的破片姿态对应的阻力系数得到随机翻转状态下的平均破片阻力系数,提出一种基于正二十面体的平均方法,对32个特定的破片姿态对应的阻力系数进行平均,得到随机翻转状态下的平均破片阻力系数。该方法得到的立方体以及圆柱体破片的平均阻力系数与弹道枪试验的结果误差在