基于到达时间差及到达频率差联合的无源定位方法研究

来源 :安徽大学 | 被引量 : 0次 | 上传用户:qishi008
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
采用主动有源装置如雷达等设备来估计目标的位置属于有源定位的范围,有源定位的一个缺点是很容易受到反辐射打击或电子干扰,使得系统的安全得不到保障,而无源定位技术的出现很好的解决了这个问题。无源定位技术相对于有源定位的主要区别在于其自身不需要发射信号,它是一种直接利用目标发射或反射的信号来获取目标位置的技术,其基本原理是利用多个位置明确的接收站共同接收目标发射或反射的信号,从中提取出能用来获取目标位置参数的观测量,并将这些观测量建立成关于目标位置的非线性代数方程,从中求解出目标位置的有效估计,从而实现目标定位。本论文对基于到达时间差(Time Differences of Arrival,TDOA)及到达频率差(Frequency Differences of Arrival,FDOA)联合的无源定位方法进行研究。论文研究了TDOA、FDOA联合定位的基本原理,对TDOA、FDOA联合定位的几种常见方法做了详细分析和仿真,包括两步加权最小二乘(Two-Step Weighted Least Squares,TSWLS)法、基于奇异值分解的总体最小二乘(Total Least Squares,TLS)法和约束总体最小二乘(Constrained Total Least Squares,CTLS)法。在已有理论与方法基础上,本论文提出了一种改进的迭代约束加权最小二乘法,即基于滑动窗口降噪处理的迭代约束加权最小二乘法。该方法通过构造移动目标源的TDOA、FDOA伪线性方程组将定位问题转化为存在约束条件下求偏差的加权最小二乘求解问题,再通过迭代法结合滑动窗口降噪处理得出移动目标源的位置及速度。通过对该方法的分析和仿真,表明本文提出的基于滑动窗口降噪处理的迭代约束加权最小二乘法可以有效提高定位精度,对解决移动目标源定位问题具有一定的参考价值。
其他文献
当前基于冯·诺依曼架构的计算系统受到内存、功耗、带宽等方面限制,人们试图开发新的架构方式,以避开这些限制。其中,存内计算由于可在阵列中处理数据,降低了对内存带宽的要求,从而节省了能源,因而被广泛研究。通过阅读文献可以发现,目前SRAM存内计算通常采用两种读取方式。第一种是多行读取,具有并行性高的优点,但由于采用模拟计算可能会导致其读出的数据存在误差,难以满足一些对精度要求较高的应用。另一种方法是单
近年来,为了解决“最后一公里”配送中存在的成本高和效率低的问题,众包物流和无人机配送物流已经成为研究热点。众包式无人机配送系统结合众包物流和无人机配送物流的优势,不仅能够有效地整合无人机资源,使具有无人机配送需求的小型配送站无需购买大量的无人机,而且能够提高配送效率和降低总的配送成本。然而,现存的众包系统一方面未考虑无人机配送任务的特殊性,另一方面普遍采用中央服务器作为众包平台,容易出现单点故障、
自20世纪70年代以来,处理器的研发趋势始终关注如何提高内核中指令的执行效率,而主存储器却主要聚焦于存储容量的增大,忽略了速度的提升。处理器与主存发展趋势的不同,造成了两者之间访存速度难以匹配,直接导致了影响计算机性能的“存储墙”问题。为了试图弥合处理器与主存之间的速度差,计算机架构师们普遍采用在系统中插入多级缓存的层次型存储结构。然而,缓存的容量与主存相比毕竟有限,访存期间一旦出现缓存缺失,就会
随着5G移动通信技术的普及,用于无线体域网的可穿戴天线在医疗、物联网、军事等领域具有广阔的应用前景。可穿戴天线的设计需要综合考虑人体复杂的电磁特征以及特殊的应用环境,为满足应用需求,其不仅需要具有小尺寸、低剖面、易与人体共形等结构特性,同时还要具有强的弯曲鲁棒性能、良好的人体加载性能以及满足天线对人体辐射的健康标准等性能特性。严格的要求增加了可穿戴天线的设计难度,目前大多数可穿戴天线的设计难以实现
作为一种重要的机器学习方法,聚类算法在许多数据分类领域得到了广泛的应用,人们可以利用聚类算法完成数据挖掘、图形模式识别、图像分割等工作,并取得了不错的成绩。然而,由于聚类算法无监督学习的特点,对聚类结果的质量进行评估就成了一项重要的研究内容。与此同时,许多聚类算法必须在开始运行之前设置目标数据集的类簇个数,但是在通常情况下,这个数字往往难以事先获知。围绕上述两个问题,本文从簇间分离度的衡量方法入手
超密集网络(Ultra Dense Network,UDN)中,被赋予计算功能的小基站由于计算能力受限容易过载,从而影响用户服务质量。另一方面,UDN大量部署小基站扩展系统容量的同时也导致了网络的致密化,数量频繁且不必要的小区切换将会产生额外网络能耗。以上存在的两大网络资源管理问题制约UDN的发展,值得深入研究。在移动边缘计算(Mobile Edge Computing,MEC)中,往往以消极的方
在大规模机器通信(massive machine type communication,m MTC)场景中,基站接收到耦合在一起的信号,如何高效准确的从耦合数据中恢复用户的传输数据成为了难题。由于m MTC中潜在的稀疏特性,压缩感知(Compressed Sensing,CS)技术可以用来联合检测上行免调度NOMA系统中的用户数据和活跃性。目前,基于CS的贪婪类算法因其复杂度低、重构精度高等优势,
大规模MIMO(Massive Multiple-input Multiple-output,Massive MIMO)技术在发射器和接收器中使用多天线阵列可以数倍地提高网络连接的容量,增加信号的收发路径和频谱效率。Massive MIMO带来优势的同时也引发了一系列的问题,由于天线数目变多,导致信道增益矩阵的维度变大。因此,对基站端进行信号检测的算法提出了更高的要求,目标是实现低复杂度且高性能的
近年来随着信息收集设备技术的进步和普及,现实世界中的数据收集难度大大降低。但是数据半结构化甚至无结构化特点易导致样本的维度达到几万甚至几十万维,需要特征选择等算法来解决所带来的维度灾难问题。然而传统的特征选择方法更倾向于选取具有鉴别性的特征,忽略了数据内在的平衡性,无法得到正确结果。因此在数据挖掘和机器学习中,急需行而有效的算法从原始数据特征集中选择相关的特征。在许多真实的数据挖掘应用中,如无线传
为了支撑上层自动驾驶功能,一辆自动驾驶汽车通常安装大量的传感器来获取道路状况,并安装众多应用程序来保障其正常运行。然而,传统的车内网络缺少细粒度的认证单元和各类加密单元,很多应用程序可以过度访问自动驾驶车辆上的敏感数据,造成车辆的隐私泄露。此外,车载相机系统易受到光线影响,在极端环境下感知的准确性有限;针对这一问题,一些学者提出将车辆自组织网络与自动驾驶技术结合,提高自动避障性能,然而保障消息的安