集群协同网络动态时隙资源分配设计与实现

来源 :电子科技大学 | 被引量 : 0次 | 上传用户:arieswys
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
集群系统由物理空间离散分布的网络节点构成,通过集群协同网络实现信息交互和节点协同,具有分布式、高动态、高抗毁等特点。面向多样化动态集群任务,现有的静态分布式网络资源分配方法无法满足多业务融合通信需求。同时,传统网络资源分配算法通常以节点接入公平性为设计准则。而在分布式协同集群应用场景下,面向业务的端到端链路级动态网络时隙资源分配问题值得研究。针对这一问题,本论文研究了集群协同网络动态时隙资源分配关键技术,主要研究内容及创新贡献包括:一、提出了一种基于最远距离调度的时间同步算法(Longest Distance Time Synchronization,LDTS),该算法的核心思想是利用最远距离调度算法选出一组最少参考节点覆盖全网节点,并且只需在参考节点间进行双向时间同步即可完成全网同步,因此可以最大限度地减少整个网络中用于时间同步数据包的数量来降低同步开销。另外通过加权移动平均的方法预测时钟误差并且进行补偿以提高时钟同步的稳定性。二、提出了一种基于链路质量估计的动态TDMA时隙资源分配算法(Link Quality based Dynamic TDMA,LQ-TDMA)。该协议的核心思想是引入链路质量指标LQI作为时隙资源分配的参考因子,建立一种有助于避免竞争和冲突的调度顺序,保障集群协同网络中高质量链路的传输实时性。另外,根据节点的LQI大小自适应地为有发送需求的节点分配时隙个数,提高了系统整体的传输效率,降低端到端时延。三、在NS-3仿真平台上,实现了时间同步算法LDTS以及动态时隙资源分配算法LQ-TDMA,测试并评估了LDTS算法的同步开销、时钟补偿机制和时间同步精度以及LQ-TDMA算法的丢包率、平均端到端时延和吞吐率等网络性能指标。实验结果表明,在节点数为60的集群网络中,本文所提LDTS算法同步开销是RBS算法的1/8,是TPSN算法的1/2。并且在30s的同步周期的情况下,节点的平均时间误差值保持在0~5us,能够满足集群协同网络动态时隙资源分配的需求。同时,本文对LQ-TDMA、FPRP和DRAND三种算法进行比较,实验结果表明,在三种算法的吞吐量和丢包率相当的情况下,LQ-TDMA的平均端到端时延相比FPRP和DRAND分别降低了14%和8%。本文针对集群多业务融合创新的需求,提出的时间同步算法LDTS和动态时隙资源分配算法LQ-TDMA能有效适配集群系统,对集群协同网络的应用具有重要理论和现实意义。
其他文献
在获取数字图像时,图像被噪声污染是一个很难避免的问题。图像去噪是许多其他图像工作的基础,如图像分割,边缘提取,图像识别等,都需要首先经过图像去噪,去除干扰信息。图像去噪会很大程度上影响后续工作的效果,因此对图像进行去噪是非常必要的。近年来,因为深度学习的快速发展以及卷积神经网络(CNN)在图像识别等领域取得了很大的成功,人们开始尝试在图像去噪领域研究基于深度学习的方法。最近的研究中,在高斯白噪声领
随着日益复杂的电磁频谱环境带来的严峻的干扰问题,干扰处理技术越来越受到重视。机器学习作为当下的潮流之一,正带动着通信抗干扰技术向智能化方向发展。干扰识别是抗干扰的前提和基础,也是其关键技术之一。将机器学习算法应用到干扰识别技术中,可以使得干扰类型及其相关参数的识别更加准确高效。成功识别出干扰信号之后,利用链路自适应技术,根据不同的信道质量指标对发送功率、调制编码方案及信号波束方向等参数进行实时更改
随着网络技术的飞速发展,无处不在的移动设备和大量的新兴应用导致了移动数据流量的爆炸式增长。内容分发网络(Content Delivery Network,CDN)作为解决网络流量快速增长的重要手段,为了获得更低的延迟和更好的用户体验,不断将其缓存设备从中心网络下沉到边缘网络当中,我们称这样的内容分发网络叫做边缘缓存网络。新的场景带来新的问题,边缘缓存中,通常缓存设备搭载在基站上,这导致了缓存所能够
随着大数据时代的发展,各行各业都呈现出了数字化、信息化的趋势。由于医疗与民生的高度相关性,所以医疗大数据的发展也越发引人关注。然而医疗数据以其多种难以解决的特性往往会对信息化发展产生制约,这些特性包括不完整性、隐私性、多态性等。并且由于医疗数据是在实际的临床工作中获得的,病人往往会在得病之后才去就医,所以医院得到的各种病症的数据比例必然与对应病症的发病率相关,这会导致医疗数据出现不平衡的情况,从而
近些年实例分割任务越来越多的受到研究者们的关注与研究,但目前为止该任务依然没有达到令人满意的效果,其中大部分算法都无法达到实时性的要求,即使达到实时性的算法也很难具有较高的准确度。为了在工程中使用具有实时性的实例分割算法,本论文在YOLACT算法的基础上进行了相关改进,并在保证实时性的同时进一步提高算法准确度。然后在实例分割算法的基础上进一步研究了行人属性识别算法,并通过实例分割方法解决行人属性识
随着社会与网络的不断发展与进步,自然语言处理领域的各项技术如机器翻译、文本匹配与文本分类等也积极地应用在了现实生活中,并取得了良好的效果。互联网的发展,使自然语言处理领域逐步面对更加现实的数据:这些数据存在大量噪声;数据中的每个样本可能被多个子标签的组合所标记;数据中各种类别之间的样本数量不均衡。而当今社会的发展,正需求对网络文本与网络舆情的监管,那么能够处理这种不规则、复杂数据的方法是十分必要的
脉冲神经网络(Spiking Neural Networks)的发展是对类脑计算的进一步学习和发展。同传统神经网络机制相比较而言,脉冲神经网络会对生物神经元进行仿真,模仿生物神经元的结构,同时在编码方式上融入了时间信息。因此脉冲神经网络同时携带空间和时间信息,可以表达更丰富的概念。目前脉冲神经网络在图像识别,计算机视觉、语音处理等方面有了比较好的算法和简单应用。但是,由于脉冲神经网络的发展历史还比
网络流中包含网络会话中的全部信息,通过对网络流的分析,可以及时准确的获取当前网络运行状态以及发现网络攻击行为,且系统部署代价较低。目前基于网络流的攻击检测系统多是对流量的特征识别分类,没有充分利用网络流数据的层次性结构特征以及网络攻击事件的阶段性特征。为提高分析效率,有效发现APT类攻击事件行为特征,本文首先基于三层次流实体表示结构对网络流特征进行抽取;其次基于模式匹配与深度学习双引擎流量识别技术
近年来汽车行业的发展给人们的生活带来了诸多便利,然而交通带来的隐患也不容小觑,如今对车辆安全性的研究已成为热门方向,为了提高驾驶员驾驶安全性,本文提出了基于深度学习和单目测距的车辆预警系统。预警系统的设计除了需要对预警策略进行科学制定,更需要以目标检测和测距结果作为数据基础,对目标数据的实时性、可靠性要求较高。在目标检测方面当前大部分检测算法难以满足在嵌入式端的速度和精度要求;在测距方面传统的单目
云计算是一种成熟和发展的模式,它可以同时为众多客户提供资源和服务。这些资源以为用户创建虚拟机并在物理服务器上分配这些机器的形式提供。这些服务是在客户询问一些过程时提供的,这些过程由位于云服务器上的服务软件组件执行。为了提高最关键的服务组件的生存与容错能力,服务提供者使用冗余的服务组件计算同一任务。基于投票的N版本编程(N-Version Programming,NVP)是目前流行的冗余技术之一。使